Miles Brundage, langjähriger Politikforscher bei OpenAI und leitender Berater des AGI-Bereitschaftsteams des Unternehmens, ist gegangen.
In einem Post auf X am Mittwoch und in einem Aufsatz in seinem Newslettersagte Brundage, dass er glaubt, dass er als Forscher und Fürsprecher im gemeinnützigen Sektor mehr Einfluss haben wird, wo er „mehr Möglichkeiten zur freien Veröffentlichung“ haben wird.
„Ein Grund dafür, dass diese Entscheidung schwer fiel, ist, dass die Arbeit bei OpenAI heute mehr denn je eine unglaublich wirkungsvolle Chance ist“, sagte Brundage. „OpenAI braucht Mitarbeiter, denen die Mission am Herzen liegt und die sich für die Aufrechterhaltung einer Kultur strenger Entscheidungsfindung in Bezug auf Entwicklung und Bereitstellung (einschließlich der internen Bereitstellung, die mit der Zeit immer wichtiger werden wird) einsetzen.“
Mit Brundages Abgang wird die Wirtschaftsforschungsabteilung von OpenAI, die bis vor Kurzem ein Unterteam von AGI Readiness war, unter dem neuen Chefökonomen von OpenAI, Ronnie Chatterji, stehen. Der Rest des AGI-Bereitschaftsteams – das sich auflöst – wird auf andere OpenAI-Abteilungen verteilt, sagt Brundage. Joshua Achiam, Leiter der Missionsausrichtung, wird einige Projekte zur AGI-Bereitschaft übernehmen.
Ein OpenAI-Sprecher sagte gegenüber Tech, dass das Unternehmen Brundages Entscheidung, seine Politikforschung außerhalb der Industrie fortzusetzen, „voll und ganz unterstützt“ und für seine Beiträge „zutiefst dankbar“ sei.
„Brundages Plan, sich voll und ganz auf unabhängige Forschung zur KI-Politik zu konzentrieren, gibt ihm die Möglichkeit, auf breiterer Ebene Einfluss zu nehmen, und wir freuen uns, aus seiner Arbeit zu lernen und ihre Auswirkungen zu verfolgen“, sagte der Sprecher in einer Erklärung. „Wir sind zuversichtlich, dass Miles in seiner neuen Rolle die Messlatte für die Qualität der Politikgestaltung in Industrie und Regierung weiterhin höher legen wird.“
Der Sprecher sagte nicht, wer Brundages Aufgaben übernehmen wird.
Brundage kam 2018 zu OpenAI, wo er als Forschungswissenschaftler begann und später Leiter der Politikforschung des Unternehmens wurde. Vor OpenAI war Brundage wissenschaftlicher Mitarbeiter am Future of Humanity Institute der Universität Oxford.
Im AGI-Bereitschaftsteam legte Brundage besonderen Wert auf den verantwortungsvollen Einsatz von Sprachgenerierungssystemen wie ChatGPT. Er leitete andere Initiativen an anderer Stelle, darunter das externe Red-Teaming-Programm von OpenAI und seine ersten „Systemkarten“-Berichte, die die Fähigkeiten und Einschränkungen von KI-Modellen dokumentieren.
In den letzten Jahren wurde OpenAI von mehreren ehemaligen Mitarbeitern – und Vorstandsmitgliedern – vorgeworfen, kommerziellen Produkten auf Kosten der KI-Sicherheit Vorrang einzuräumen. Brundage forderte die OpenAI-Mitarbeiter in seinem Beitrag zu X auf, „ihre Meinung zu äußern“, wie das Unternehmen es besser machen kann.
„Einige Leute haben mir gesagt, dass sie traurig sind, dass ich gehe, und dass sie es zu schätzen wissen, dass ich während meines Hierseins oft bereit war, Bedenken oder Fragen zu äußern … OpenAI hat viele schwierige Entscheidungen vor sich und wird diese nicht treffen.“ richtige Entscheidungen, wenn wir dem Gruppendenken erliegen“, schrieb er.
OpenAI hat in den letzten Wochen hochkarätige Führungskräfte entlassen, was den Höhepunkt der Meinungsverschiedenheiten über die Ausrichtung des Unternehmens darstellt. CTO Mira Murati, Chief Research Officer Bob McGrew und Research VP Barret Zoph gaben Ende September ihren Rücktritt bekannt. Der bekannte Forschungswissenschaftler Andrej Karpathy verließ OpenAI im Februar; Monate später kündigten OpenAI-Mitbegründer und ehemaliger Chefwissenschaftler Ilya Sutskever zusammen mit dem ehemaligen Sicherheitschef Jan Leike. Im August sagte Mitbegründer John Schulman, er werde OpenAI verlassen. Und Greg Brockman, der Präsident des Unternehmens, ist in längerem Urlaub.
Es war ein eher wenig schmeichelhafter Tag für OpenAI.
Am Mittwochmorgen war das Unternehmen Gegenstand einer New York Times Profil des ehemaligen OpenAI-Forschers Suchir Balaji, der sagte, er habe das Unternehmen verlassen, weil er nicht mehr zu Technologien beitragen wollte, von denen er glaubte, dass sie der Gesellschaft mehr schaden als nützen würden. Balaji warf OpenAI außerdem vor, das Urheberrecht zu verletzen, indem es seine Modelle ohne Erlaubnis auf IP-geschützten Daten trainierte – eine Behauptung, die andere in Sammelklagen gegen die Organisation erhoben haben.
Tech hat einen KI-fokussierten Newsletter! Melden Sie sich hier an um es jeden Mittwoch in Ihrem Posteingang zu erhalten.