OpenAI-CEO Sam Altman verlässt die interne Kommission, die OpenAI im Mai gegründet hat, um „kritische“ Sicherheitsentscheidungen in Bezug auf die Projekte und Aktivitäten des Unternehmens zu überwachen.
In einem Blog-Beitrag Heute gab OpenAI bekannt, dass das Komitee, das Safety and Security Committee, eine „unabhängige“ Aufsichtsgruppe unter dem Vorsitz von Carnegie Mellon-Professor Zico Kolter, Quora-CEO Adam D’Angelo, dem pensionierten US-General Paul Nakasone und der ehemaligen Sony-Vizepräsidentin Nicole Seligman werden soll. Alle sind bereits Mitglieder des Vorstands von OpenAI.
OpenAI merkte in seinem Beitrag an, dass die Kommission eine Sicherheitsüberprüfung von o1, OpenAIs neuestem KI-Modell, durchgeführt habe – allerdings noch während Altman Vorsitzender war. Die Gruppe werde weiterhin „regelmäßige Briefings“ von den Sicherheitsteams von OpenAI erhalten, sagte das Unternehmen, und behalte sich die Befugnis vor, Veröffentlichungen zu verzögern, bis Sicherheitsbedenken ausgeräumt seien.
„Im Rahmen seiner Arbeit wird der Sicherheitsausschuss … weiterhin regelmäßige Berichte über technische Bewertungen für aktuelle und zukünftige Modelle sowie Berichte über die laufende Überwachung nach der Veröffentlichung erhalten“, schrieb OpenAI in dem Beitrag. „[W]Wir bauen auf unseren Modellstartprozessen und -praktiken auf, um einen integrierten Sicherheitsrahmen mit klar definierten Erfolgskriterien für Modellstarts zu schaffen.“
Altmans Ausscheiden aus dem Sicherheitsausschuss erfolgt, nachdem fünf US-Senatoren aufgeworfene Fragen über die Richtlinien von OpenAI in einem Brief an Altman in diesem Sommer. Fast die Hälfte der OpenAI-Mitarbeiter, die sich einst auf die langfristigen Risiken der KI konzentrierten, linksund ehemalige OpenAI-Forscher haben beschuldigt Altman lehnt eine „echte“ KI-Regulierung ab und befürwortet stattdessen Richtlinien, die die Unternehmensziele von OpenAI fördern.
OpenAI hat seine Ausgaben für Lobbyarbeit auf Bundesebene drastisch erhöht und veranschlagt für die ersten sechs Monate des Jahres 2024 800.000 Dollar, im gesamten letzten Jahr waren es 260.000 Dollar. Altman trat im Frühjahr auch dem Artificial Intelligence Safety and Security Board des US-Heimatschutzministeriums bei, das Empfehlungen für die Entwicklung und den Einsatz von KI in der gesamten kritischen Infrastruktur der USA gibt.
Selbst wenn Altman abgesetzt wäre, deutet wenig darauf hin, dass der Sicherheitsausschuss schwierige Entscheidungen treffen würde, die sich ernsthaft auf die kommerzielle Roadmap von OpenAI auswirken. Bezeichnenderweise hat OpenAI sagte im Mai, dass man versuchen würde, „berechtigte Kritik“ an seiner Arbeit über die Kommission zu berücksichtigen – wobei „berechtigte Kritik“ natürlich im Auge des Betrachters liegt.
In einem Kommentar für The Economist im MaiDie ehemaligen OpenAI-Vorstandsmitglieder Helen Toner und Tasha McCauley sagten, dass man OpenAI in seiner heutigen Form ihrer Meinung nach nicht vertrauen könne, dass es sich selbst zur Verantwortung ziehen könne. „[B]Aufgrund unserer Erfahrungen sind wir davon überzeugt, dass die Selbstverwaltung dem Druck von Gewinnanreizen nicht zuverlässig standhalten kann“, schreiben sie.
Und die Gewinnanreize von OpenAI wachsen.
Gerüchten zufolge ist das Unternehmen gerade dabei, in einer Finanzierungsrunde über 6,5 Milliarden Dollar einzusammeln, was OpenAI einen Wert von über 150 Milliarden Dollar bescheren würde. Um den Deal abzuschließen, wird OpenAI wahrscheinlich seine hybride Non-Profit-Unternehmensstruktur aufgeben, die darauf abzielte, die Renditen der Investoren zu begrenzen, teilweise um sicherzustellen, dass OpenAI seiner Gründungsmission treu bleibt: der Entwicklung künstlicher allgemeiner Intelligenz, die „der gesamten Menschheit zugutekommt“.