Wie das OpenAI-Fiasko Meta und die „Open AI“-Bewegung stärken könnte

Es waren vier turbulente Tage für OpenAI, das Aushängeschild der generativen KI hinter dem Erfolgshit ChatGPT.

Scheinbar aus dem Nichts entließ der OpenAI-Vorstand den CEO und Mitbegründer Sam Altman und degradierte den Präsidenten und Mitbegründer Greg Brockman, der anschließend zurücktrat, und ebnete damit den Weg für eine scheinbare Meuterei der Mitarbeiter, die darauf bestanden, dass die Gründer überstürzt wieder eingesetzt werden. Zu diesem Zeitpunkt hatte Microsoft bereits Altman und Brockman als Leiter einer neuen internen KI-Einheit eingestellt, obwohl, wie sich herausstellte, noch nichts unterzeichnet worden war und Gerüchte darauf hindeuteten, dass die gestürzten Leiter doch tatsächlich zu OpenAI zurückkehren könnten – in gewisser Weise zumindest am wenigsten.

Die Situation bleibt ungewiss und es bleiben noch zahlreiche mögliche Ergebnisse auf dem Tisch. Aber das ganze Debakel hat ein Schlaglicht auf die Kräfte geworfen, die die aufkeimende KI-Revolution kontrollieren, und viele zu der Frage veranlasst, was passiert, wenn man auf einen zentralisierten proprietären Player setzt, und was passiert, wenn die Dinge dann pleite gehen?

„Das OpenAI/Microsoft-Drama unterstreicht eines der großen kurzfristigen Risiken der KI – dass diese nächste Technologiewelle von derselben kleinen Gruppe von Akteuren kontrolliert wird, die diese letzte Ära des Internets geprägt haben.“ Mark Surman, Präsident und Geschäftsführer der Mozilla Foundation, sagte gegenüber Tech. „Wir hätten vielleicht eine Chance, dies zu vermeiden, wenn GPT-X verantwortungsvoll als Open-Source-Lösung bereitgestellt würde, was Forschern und Start-ups die Möglichkeit gäbe, diese Technologie für Menschen überall sicherer, nützlicher und vertrauenswürdiger zu machen.“

Öffnen und Schliessen

In einem vor einigen Wochen von Mozilla veröffentlichten offenen Brief forderte Metas Chef-KI-Wissenschaftler Yann LeCun gemeinsam mit rund 70 anderen Unterzeichnern mehr Offenheit in der KI-Entwicklung hat seitdem gesammelt mehr als 1.700 Unterschriften. Hintergrund sind Big-Tech-Unternehmen wie OpenAI und Googles DeepMind, die mehr Regulierung fordern und vor katastrophalen Folgen warnen, wenn die KI-Hebel in die falschen Hände geraten – mit anderen Worten: Sie argumentierten, proprietäre KI sei sicherer als Open Source.

LeCun et al. sind anderer Meinung.

„Ja, offen verfügbare Modelle bergen Risiken und Schwachstellen – KI-Modelle können von böswilligen Akteuren missbraucht oder von schlecht ausgerüsteten Entwicklern eingesetzt werden“, heißt es in dem Brief. „Wir haben jedoch immer wieder gesehen, dass das Gleiche auch für proprietäre Technologien gilt – und dass ein zunehmender öffentlicher Zugang und eine bessere Kontrolle die Technologie sicherer und nicht gefährlicher machen. Die Vorstellung, dass eine strenge und proprietäre Kontrolle grundlegender KI-Modelle der einzige Weg ist, uns vor gesellschaftlichem Schaden zu schützen, ist bestenfalls naiv, im schlimmsten Fall gefährlich.“

Auf persönlicher Ebene hat LeCun beschuldigt Die namhaften KI-Akteure versuchen, durch Lobbyarbeit gegen offene KI-Forschung und -Entwicklung eine „regulatorische Eroberung der KI-Industrie“ zu erreichen. Und auf Unternehmensebene tut Meta alles, was in seiner Macht steht, um Zusammenarbeit und „Offenheit“ zu fördern, und hat kürzlich eine Partnerschaft mit Hugging Face geschlossen, um einen neuen Startup-Beschleuniger auf den Markt zu bringen, der die Einführung von Open-Source-KI-Modellen vorantreiben soll.

Aber OpenAI war – zumindest bis letzte Woche – immer noch der KI-Liebling, mit dem jeder tanzen wollte. Unzählige Start-ups und Scale-ups haben Unternehmen auf der Grundlage der proprietären GPT-X-LLMs (Large Language Models) von OpenAI aufgebaut, und am Wochenende Hunderte von OpenAI-Kunden soll begonnen haben, die Konkurrenten von OpenAI zu kontaktieren Dazu gehören Anthropic, Google und Cohere, die befürchten, dass ihre eigenen Unternehmen beeinträchtigt werden könnten, wenn OpenAI über Nacht zerfallen würde.

Übermäßige Abhängigkeit

Die Panik war spürbar. Aber es gibt auch Präzedenzfälle aus anderen Bereichen der Technologiebranche, allen voran vielleicht aus der Cloud-Computing-Branche, die dafür bekannt wurde, dass sie Unternehmen in zentralisierten, strudelartigen Silos einsperrte.

„Ein Teil der Aufregung um die Zukunft von OpenAI ist darauf zurückzuführen, dass sich zu viele Startups zu sehr auf ihre proprietären Modelle verlassen.“ Luis Céze, Informatikprofessor an der University of Washington und CEO von OctoML, sagte Tech in einer per E-Mail gesendeten Erklärung. „Es ist gefährlich, alle Chips in einen Korb zu legen – das haben wir in den frühen Tagen der Cloud gesehen, was dazu führte, dass Unternehmen auf Multi-Cloud- und Hybridumgebungen umstiegen.“

Oberflächlich betrachtet scheint Microsoft derzeit der größte Gewinner der OpenAI-Turbulenzen zu sein, wie es offenbar bereits der Fall war möchte seine Abhängigkeit von OpenAI verringern obwohl es einer seiner größten Anteilseigner bleibt. Aber auch Facebooks Muttergesellschaft Meta könnte davon profitieren, da Unternehmen multimodale Strategien oder Modelle mit einem eingebetteteren „offeneren“ Ethos verfolgen.

„Open Source bietet Unternehmen heute eine Vielzahl von Modellen zur grundsätzlichen Diversifizierung“, fügte Ceze hinzu. „Auf diese Weise können diese Startups schnell umschwenken und Risiken minimieren. Es gibt auch einen großen Vorteil: Viele dieser Modelle übertreffen bereits OpenAIs in Bezug auf Preis-Leistungs-Verhältnis und Geschwindigkeit.“

A Durchgesickertes internes Memo von Google Anfang des Jahres offenbar Befürchtungen zum Ausdruck gebracht, dass trotz der enormen Fortschritte, die proprietäre LLM-Modelle von Unternehmen wie OpenAI gemacht haben, die Open-Source-KI letztendlich alle übertrumpfen würde. „Wir haben keinen Burggraben und OpenAI auch nicht“, heißt es in dem Dokument.

Das fragliche Memo bezog sich auf ein Foundation-Language-Modell, das ursprünglich im März von Meta durchgesickert war und in kurzer Zeit ziemlich viel an Fahrt gewann. Dies verdeutlichte die Leistungsfähigkeit und Skalierbarkeit eines offeneren Ansatzes für die KI-Entwicklung – er ermöglicht Zusammenarbeit und Experimente auf einer Ebene, die mit geschlossenen Modellen nicht so einfach zu reproduzieren ist.

Es ist hier trotzdem erwähnenswert Metas Behauptungen, seine LLM-Familie unter der Marke Llama ist nicht so „Open Source“, wie es den Leuten weismachen möchte. Ja, sie sind sowohl für Forschungs- als auch für kommerzielle Anwendungsfälle verfügbar. aber es verbietet es Entwickler können Llama zum Trainieren anderer Modelle verwenden, während App-Entwickler mit mehr als 700 Millionen monatlichen Benutzern eine spezielle Lizenz von Meta beantragen müssen, die sie nach „alleinigem Ermessen“ gewähren kann – im Grunde kann jeder außer Metas Big-Tech-Brüdern Llama verwenden ohne Erlaubnis.

Meta ist sicherlich nicht das einzige Unternehmen, das seinen „offenen“ Ansatz bei der KI-Entwicklung zur Schau stellt – insbesondere Unternehmen wie Hugging Face, Mistral AI und 01.AI, die alle beträchtliche Summen zu hohen Bewertungen mit ähnlichen Zielen eingesammelt haben. Aber als 900-Milliarden-Dollar-Moloch mit einem lange Geschichte der Werbung für Entwickler durch Open-Source-Bemühungen, Meta ist vielleicht am besten positioniert, um aus dem Chaos, das OpenAI für sich selbst geschaffen hat, Kapital zu schlagen. Seine Entscheidung, „Offenheit“ statt „Geschlossenheit“ anzustreben, scheint derzeit durchaus gerechtfertigt zu sein, und zwar unabhängig davon, ob Llama es ist oder nicht Wirklich Open Source ist für die meisten Menschen wahrscheinlich „offen genug“.

Es ist noch zu früh, um sichere Aussagen darüber zu machen, welche Auswirkungen der OpenAI-Fallout auf die LLM-Entwicklung und -Einführung in der Zukunft haben wird. Altman und Brockman sind zweifellos feste Hände für ein kommerzielles KI-Startup, und sie könnten sogar zum Verwalter von OpenAI zurückkehren. Aber einige mögen vielleicht einwenden, dass es ungesund ist, dass der Fokus so sehr auf nur einer Handvoll Menschen liegt – und es ist bezeichnend, dass ihr Abgang so großes Chaos angerichtet hat.



tch-1-tech