OpenAI verspricht dem US AI Safety Institute frühzeitigen Zugriff auf sein nächstes Modell

Laut Sam Altman, CEO von OpenAI, arbeitet OpenAI mit dem US AI Safety Institute, einer Bundesbehörde, deren Ziel die Bewertung und Bewältigung von Risiken in KI-Plattformen ist, an einer Vereinbarung, die einen frühzeitigen Zugang zu seinem nächsten großen generativen KI-Modell für Sicherheitstests gewährt.

Der Bekanntmachungdie Altman am späten Donnerstagabend in einem Beitrag auf X veröffentlichte, war nicht sehr detailliert. Aber es – zusammen mit einem Ähnliches Angebot Der im Juni mit dem britischen Gremium für KI-Sicherheit geschlossene Konflikt – soll offenbar der Darstellung entgegenwirken, OpenAI habe die Arbeit an der KI-Sicherheit zugunsten der Entwicklung leistungsfähigerer und leistungsstärkerer generativer KI-Technologien zurückgestellt.

Im Mai löste OpenAI eine Abteilung auf, die sich mit der Entwicklung von Kontrollmechanismen beschäftigte, die verhindern sollen, dass „superintelligente“ KI-Systeme außer Kontrolle geraten. Berichte – darunter auch unsere – legten nahe, dass OpenAI die Sicherheitsforschung des Teams zugunsten der Einführung neuer Produkte vernachlässigte, was letztlich zum Rücktritt der beiden Co-Leiter des Teams führte: Jan Leike (der jetzt die Sicherheitsforschung beim KI-Startup Anthropic leitet) und OpenAI-Mitbegründer Ilya Sutskever (der sein eigenes auf Sicherheit ausgerichtetes KI-Unternehmen, Safe Superintelligence Inc., gründete).

Als Reaktion auf einen wachsenden Chor von Kritikern sagte OpenAI, es werde seine restriktive Nicht-Verunglimpfungsklauseln das Whistleblowing implizit untersagte, eine Sicherheitskommission einzurichten und 20 % der Rechenleistung für die Sicherheitsforschung bereitzustellen. (Dem aufgelösten Sicherheitsteam waren 20 % der Rechenleistung von OpenAI für seine Arbeit versprochen worden, aber es hat diese Summe letztlich nie erhalten.) Altman bekräftigte seine Verpflichtung zu 20 % und bekräftigte, dass OpenAI im Mai die Nichtverunglimpfungsbestimmungen für neue und bestehende Mitarbeiter aufgehoben hatte.

Die Maßnahmen haben jedoch einige Beobachter kaum besänftigt – insbesondere nachdem OpenAI die Sicherheitskommission mit Insidern des Unternehmens besetzt hat, darunter Altman und in jüngerer Zeit neu zugewiesen ein hochrangiger KI-Sicherheitsmanager in eine andere Organisation.

Fünf Senatoren, darunter Brian Schatz, ein Demokrat aus Hawaii, aufgeworfene Fragen über die Richtlinien von OpenAI in einem kürzlich an Altman gerichteten Brief. Jason Kwon, Chief Strategy Officer von OpenAI antwortete auf den Brief heute, schreiben die OpenAI „[is] Wir sind bestrebt, in jeder Phase unseres Prozesses strenge Sicherheitsprotokolle umzusetzen.“

Der Zeitpunkt der Vereinbarung zwischen OpenAI und dem US AI Safety Institute erscheint angesichts der Tatsache, dass das Unternehmen Anfang dieser Woche den Future of Innovation Act gebilligt hat, ein wenig verdächtig. Dieser Gesetzesentwurf des Senats sieht vor, das Safety Institute als Exekutivorgan zu autorisieren, das Standards und Richtlinien für KI-Modelle festlegt. Die gemeinsamen Schritte könnten als Versuch der Regulierungsübernahme wahrgenommen werden – oder zumindest als eine Einflussnahme von OpenAI auf die KI-Politik auf Bundesebene.

Nicht umsonst ist Altman Mitglied des Sicherheitsausschusses für künstliche Intelligenz des US-Heimatschutzministeriums, der Empfehlungen für die „sichere Entwicklung und Bereitstellung von KI“ in den kritischen Infrastrukturen der USA abgibt. Und OpenAI hat seine Ausgaben für Lobbyarbeit auf Bundesebene in diesem Jahr drastisch erhöht und in den ersten sechs Monaten des Jahres 2024 800.000 Dollar ausgegeben, gegenüber 260.000 Dollar im gesamten Jahr 2023.

Das US AI Safety Institute, das dem National Institute of Standards and Technology des Handelsministeriums unterstellt ist, berät ein Konsortium von Unternehmen, zu dem neben Anthropic auch große Technologieunternehmen wie Google, Microsoft, Meta, Apple, Amazon und Nvidia gehören. Die Industriegruppe ist mit der Arbeit an den in Präsident Joe Bidens KI-Dekret vom Oktober beschriebenen Maßnahmen beauftragt, darunter die Entwicklung von Richtlinien für KI-Red-Teaming, Fähigkeitsbewertungen, Risikomanagement, Sicherheit und Schutz sowie die Wasserzeichenvergabe an synthetischen Inhalten.

tch-1-tech