Mit einer so schnelllebigen Branche wie der KI Schritt zu halten, ist eine große Herausforderung. Bis eine KI das für Sie übernehmen kann, finden Sie hier eine praktische Zusammenfassung der neuesten Entwicklungen aus der Welt des maschinellen Lernens sowie bemerkenswerter Forschungsarbeiten und Experimente, die wir nicht gesondert behandelt haben.
Übrigens plant Tech, am 5. Juni einen KI-Newsletter herauszubringen. Bleiben Sie dran. In der Zwischenzeit erhöhen wir die Häufigkeit unserer halbregelmäßigen KI-Kolumne, die bisher etwa zweimal im Monat erschien, auf wöchentlich – halten Sie also Ausschau nach weiteren Ausgaben.
In dieser Woche hat OpenAI im Bereich KI vergünstigte Tarife für gemeinnützige Organisationen und Bildungskunden eingeführt und seine jüngsten Bemühungen, böswillige Akteure davon abzuhalten, seine KI-Tools zu missbrauchen, enthüllt. Daran gibt es nicht viel zu kritisieren – zumindest nicht nach Meinung dieses Autors. Aber ich Wille sagen, dass die Flut an Ankündigungen zum richtigen Zeitpunkt gekommen zu sein schien, um der schlechten Presse des Unternehmens in letzter Zeit entgegenzuwirken.
Beginnen wir mit Scarlett Johansson. OpenAI hat eine der Stimmen seines KI-gestützten Chatbots ChatGPT entfernt, nachdem Benutzer darauf hingewiesen hatten, dass sie Johanssons Stimme unheimlich ähnlich klang. Johansson veröffentlichte später eine Erklärung, in der sie erklärte, sie habe einen Rechtsbeistand engagiert, um sich nach der Stimme zu erkundigen und genaue Details zu ihrer Entwicklung zu erfahren – und sie habe wiederholte Bitten von OpenAI abgelehnt, ihre Stimme für ChatGPT zu lizenzieren.
Nun, ein Artikel in der Washington Post impliziert, dass OpenAI nicht wirklich versucht hat, Johanssons Stimme zu klonen und dass jegliche Ähnlichkeiten zufällig waren. Aber warum hat OpenAI-CEO Sam Altman dann Johansson kontaktiert und sie zwei Tage vor einer spektakulären Demo, in der die ähnlich klingende Stimme zu hören war, gedrängt, es sich noch einmal zu überlegen? Das ist ein bisschen verdächtig.
Dann gibt es noch die Vertrauens- und Sicherheitsprobleme von OpenAI.
Wie wir Anfang des Monats berichteten, wurden dem inzwischen aufgelösten Superalignment-Team von OpenAI, das für die Entwicklung von Methoden zur Steuerung und Kontrolle „superintelligenter“ KI-Systeme verantwortlich war, 20 % der Rechenressourcen des Unternehmens versprochen – es erhielt jedoch immer (und nur selten) einen Bruchteil davon. Dies (unter anderem) führte zum Rücktritt der beiden Co-Leiter des Teams, Jan Leike und Ilya Sutskever, dem ehemaligen Chefwissenschaftler von OpenAI.
Fast ein Dutzend Sicherheitsexperten haben OpenAI verlassen im vergangenen Jahr; mehrere, darunter Leike, haben öffentlich Bedenken geäußert, dass das Unternehmen kommerziellen Projekten Vorrang vor Sicherheits- und Transparenzbemühungen einräumt. Als Reaktion auf die Kritik bildete OpenAI ein neues Komitee, das Sicherheitsentscheidungen im Zusammenhang mit den Projekten und Aktivitäten des Unternehmens überwachen soll. Das Komitee wurde jedoch mit Unternehmensinsidern – darunter Altman – und nicht mit externen Beobachtern besetzt. Dies, da OpenAI Berichten zufolge erwägt Notwasserung seine gemeinnützige Struktur zugunsten eines traditionellen gewinnorientierten Modells.
Vorfälle wie diese machen es schwieriger, OpenAI zu vertrauen, einem Unternehmen, dessen Macht und Einfluss täglich wächst (siehe: seine Deals mit Nachrichtenverlagen). Nur wenige Unternehmen, wenn überhaupt, verdienen Vertrauen. Aber die marktstörenden Technologien von OpenAI machen die Verstöße umso beunruhigender.
Dass Altman selbst nicht gerade ein Musterbeispiel an Wahrhaftigkeit ist, trägt nicht gerade dazu bei.
Als die Nachricht von OpenAIs aggressives Vorgehen gegenüber ehemaligen Mitarbeitern brach – Taktiken, die darin bestanden, Mitarbeitern mit dem Verlust ihrer unverfallbaren Anteile oder der Verhinderung von Anteilsverkäufen zu drohen, wenn sie keine restriktiven Geheimhaltungsvereinbarungen unterzeichneten – entschuldigte sich Altman und behauptete, er habe keine Kenntnis von den Richtlinien gehabt. Aber, laut VoxAltmans Unterschrift befindet sich auf den Gründungsdokumenten, mit denen die Richtlinien in Kraft gesetzt wurden.
Und wenn ehemaliges OpenAI-Vorstandsmitglied Helen Toner Man darf nicht vergessen, dass Altman – einer der ehemaligen Vorstandsmitglieder, die Ende letzten Jahres versuchten, Altman aus seinem Posten zu entfernen – Informationen zurückgehalten, Dinge, die bei OpenAI passierten, falsch dargestellt und in einigen Fällen den Vorstand regelrecht belogen hat. Toner sagt, dass der Vorstand von der Veröffentlichung von ChatGPT über Twitter erfahren hat, nicht von Altman; dass Altman falsche Informationen über die offiziellen Sicherheitspraktiken von OpenAI gegeben hat; und dass Altman, unzufrieden mit einem von Toner mitverfassten akademischen Papier, das ein kritisches Licht auf OpenAI warf, versucht hat, Vorstandsmitglieder zu manipulieren, um Toner aus dem Vorstand zu drängen.
Nichts davon verheißt etwas Gutes.
Hier sind einige weitere bemerkenswerte KI-Geschichten der letzten Tage:
- Stimmenklonen leicht gemacht: Ein neuer Bericht des Center for Countering Digital Hate stellt fest, dass KI-gestützte Stimmklondienste das Fälschen von Aussagen von Politikern ziemlich trivial machen.
- Googles KI-Übersichten haben Probleme: AI Overviews, die KI-generierten Suchergebnisse, die Google seit Anfang des Monats in der Google-Suche in größerem Umfang einführt, müssen noch verbessert werden. Das Unternehmen gibt dies zu – behauptet aber, dass es schnell iteriert. (Wir werden sehen.)
- Paul Graham über Altman: In einer Reihe von Beiträgen auf X wies Paul Graham, Mitbegründer des Startup-Accelerators Y Combinator, Behauptungen zurück, Altman sei 2019 aufgrund potenzieller Interessenkonflikte zum Rücktritt als Präsident von Y Combinator gedrängt worden. (Y Combinator besitzt einen kleinen Anteil an OpenAI.)
- xAI sammelt 6 Milliarden US-Dollar ein: xAI, das KI-Startup von Elon Musk, hat 6 Milliarden US-Dollar an Finanzmitteln aufgebracht. Musk sichert sich damit Kapital, um aggressiv mit Konkurrenten wie OpenAI, Microsoft und Alphabet zu konkurrieren.
- Perplexitys neue KI-Funktion: Mit seiner neuen Funktion „Perplexity Pages“ möchte das KI-Startup Perplexity Benutzern dabei helfen, Berichte, Artikel oder Anleitungen in einem optisch ansprechenderen Format zu erstellen, berichtet Ivan.
- Lieblingszahlen der KI-Modelle: Devin schreibt über die Zahlen, die verschiedene KI-Modelle wählen, wenn sie eine zufällige Antwort geben sollen. Wie sich herausstellt, haben sie Favoriten – ein Spiegelbild der Daten, mit denen sie trainiert wurden.
- Mistral veröffentlicht Codestral: Mistral, das von Microsoft unterstützte und mit 6 Milliarden Dollar bewertete französische KI-Startup, hat sein erstes generatives KI-Modell für die Programmierung veröffentlicht, genannt Codestral. Aufgrund der recht restriktiven Lizenz von Mistral kann es jedoch nicht kommerziell genutzt werden.
- Chatbots und Datenschutz: Natasha schreibt über die ChatGPT-Taskforce der Europäischen Union und wie diese einen ersten Ansatz zur Entwirrung der Datenschutzkonformität des KI-Chatbots bietet.
- Der Soundgenerator von ElevenLabs: Das Voice-Cloning-Startup ElevenLabs stellte im Februar ein neues Tool vor, mit dem Benutzer durch Eingabeaufforderungen Soundeffekte erzeugen können.
- Verbindungselemente für KI-Chips: Technologiegiganten wie Microsoft, Google und Intel – aber nicht Arm, Nvidia oder AWS – haben eine Industriegruppe, die UALink Promoter Group, gegründet, um bei der Entwicklung von KI-Chipkomponenten der nächsten Generation zu helfen.