Der ehemalige Leiter der National Security Agency, General a.D. Paul Nakasone, wird dem Vorstand von OpenAI beitreten, dem KI-Unternehmen angekündigt Donnerstag NachmittagEr wird außerdem dem Unterausschuss „Sicherheit und Schutz“ des Vorstands angehören.
Mit dieser viel beachteten Erweiterung soll vermutlich die Kritiker zufriedengestellt werden, die der Meinung sind, dass sich OpenAI schneller entwickelt, als es für seine Kunden und möglicherweise auch für die Menschheit ratsam wäre, da das Unternehmen Modelle und Dienste herausbringt, ohne deren Risiken ausreichend zu bewerten oder sie abzusichern.
Nakasone bringt jahrzehntelange Erfahrung aus der Armee, dem US Cyber Command und der NSA mit. Was auch immer man über die Vorgehensweisen und Entscheidungsfindungen dieser Organisationen denken mag, mangelndes Fachwissen kann man ihm jedenfalls nicht vorwerfen.
Da sich OpenAI zunehmend als KI-Anbieter nicht nur für die Technologiebranche, sondern auch für Regierungen, Verteidigungsunternehmen und Großunternehmen etabliert, ist dieses institutionelle Wissen sowohl für sich selbst als auch als Beruhigungsmittel für besorgte Aktionäre wertvoll. (Zweifellos sind auch die Verbindungen, die er in den Staats- und Militärapparat mitbringt, willkommen.)
„OpenAIs Hingabe zu seiner Mission steht im Einklang mit meinen eigenen Werten und Erfahrungen im öffentlichen Dienst“, sagte Nakasone in einer Pressemitteilung.
Das scheint durchaus wahr zu sein: Nakasone und die NSA verteidigten kürzlich die Praxis, Daten zweifelhafter Herkunft zu kaufen, um ihre Überwachungsnetze zu füttern, mit dem Argument, es gebe kein Gesetz dagegen. OpenAI seinerseits hat einfach große Mengen an Daten aus dem Internet genommen, anstatt sie zu kaufen, und argumentierte, wenn es entdeckt wurde, es gebe kein Gesetz dagegen. Sie scheinen einer Meinung zu sein, wenn es darum geht, um Vergebung statt um Erlaubnis zu bitten, falls sie überhaupt um beides bitten.
In der OpenAI-Veröffentlichung heißt es außerdem:
Nakasones Erkenntnisse werden auch zu den Bemühungen von OpenAI beitragen, besser zu verstehen, wie KI zur Stärkung der Cybersicherheit eingesetzt werden kann, indem Cybersicherheitsbedrohungen schnell erkannt und darauf reagiert werden. Wir glauben, dass KI in diesem Bereich für viele Institutionen, die häufig Ziel von Cyberangriffen sind, wie Krankenhäuser, Schulen und Finanzinstitute, erhebliche Vorteile bringen kann.
Es handelt sich also auch hierbei um ein neues Marktspiel.
Nakasone wird dem Sicherheitsausschuss des Vorstands beitreten, der „dafür verantwortlich ist, dem gesamten Vorstand Empfehlungen zu kritischen Sicherheitsentscheidungen für OpenAI-Projekte und -Operationen zu geben“. Was diese neu geschaffene Einheit tatsächlich tut und wie sie arbeiten wird, ist noch unbekannt, da mehrere der leitenden Mitarbeiter, die im Bereich Sicherheit (was KI-Risiken betrifft) arbeiten, das Unternehmen verlassen haben und der Ausschuss selbst mitten in einer 90-tägigen Evaluierung der Prozesse und Sicherheitsvorkehrungen des Unternehmens steckt.