OpenAI verliert eine weitere führende Sicherheitsforscherin, Lilian Weng

Eine weitere führende Sicherheitsforscherin von OpenAI, Lilian Weng, gab am Freitag bekannt, dass sie das Startup verlässt. Weng war seit August Vizepräsident für Forschung und Sicherheit und davor Leiter des Sicherheitssystemteams von OpenAI.

In einem Beitrag auf XWeng sagte: „Nach 7 Jahren bei OpenAI fühle ich mich bereit, neu zu starten und etwas Neues zu erkunden.“ Weng sagte, ihr letzter Tag werde der 15. November sein, machte aber keine Angaben, wohin sie als nächstes gehen wird.

„Ich habe die äußerst schwierige Entscheidung getroffen, OpenAI zu verlassen“, sagte Weng in dem Beitrag. „Angesichts dessen, was wir erreicht haben, bin ich so stolz auf alle im Safety Systems-Team und habe großes Vertrauen, dass das Team weiterhin erfolgreich sein wird.“

Wengs Abgang ist der jüngste in einer langen Reihe von KI-Sicherheitsforschern, Politikforschern und anderen Führungskräften, die das Unternehmen im letzten Jahr verlassen haben, und mehrere haben OpenAI vorgeworfen, kommerziellen Produkten Vorrang vor KI-Sicherheit zu geben. Weng schließt sich Ilya Sutskever und Jan Leike an – den Leitern des inzwischen aufgelösten Superalignment-Teams von OpenAI, das versuchte, Methoden zur Steuerung superintelligenter KI-Systeme zu entwickeln – die das Startup dieses Jahr ebenfalls verließen, um anderswo an der KI-Sicherheit zu arbeiten.

Ihrer Meinung nach kam Weng erstmals 2018 zu OpenAI LinkedInarbeitete im Robotik-Team des Startups, das schließlich eine Roboterhand baute, die einen Zauberwürfel lösen konnte – eine Aufgabe, die laut ihrem Beitrag zwei Jahre dauerte.

Als OpenAI begann, sich mehr auf das GPT-Paradigma zu konzentrieren, tat dies auch Weng. Der Forscher wechselte 2021, um beim Aufbau des angewandten KI-Forschungsteams des Startups mitzuhelfen. Nach der Einführung von GPT-4 wurde Weng damit beauftragt, im Jahr 2023 ein spezielles Team zusammenzustellen, um Sicherheitssysteme für das Startup zu entwickeln. Heute verfügt die Sicherheitssystemeinheit von OpenAI über mehr als 80 Wissenschaftler, Forscher und Politikexperten, heißt es in Wengs Beitrag.

Das sind viele KI-Sicherheitsleute, aber viele haben Bedenken hinsichtlich des Fokus von OpenAI auf Sicherheit geäußert, da das Unternehmen versucht, immer leistungsfähigere KI-Systeme zu entwickeln. Miles Brundage, ein langjähriger Politikforscher, verließ das Startup im Oktober und gab bekannt, dass OpenAI sein AGI-Bereitschaftsteam auflöst, das er beraten hatte. Am selben Tag stellte die New York Times einen ehemaligen OpenAI-Forscher vor: Suchir Balajider sagte, er habe OpenAI verlassen, weil er glaubte, dass die Technologie des Startups der Gesellschaft mehr schaden als nützen würde.

OpenAI teilt Tech mit, dass Führungskräfte und Sicherheitsforscher an einem Übergang arbeiten, um Weng zu ersetzen.

„Wir schätzen Lilians Beiträge zur bahnbrechenden Sicherheitsforschung und zum Aufbau strenger technischer Schutzmaßnahmen sehr“, sagte ein OpenAI-Sprecher in einer per E-Mail versandten Erklärung. „Wir sind zuversichtlich, dass das Safety Systems-Team weiterhin eine Schlüsselrolle dabei spielen wird, sicherzustellen, dass unsere Systeme sicher und zuverlässig sind und Hunderte Millionen Menschen weltweit bedienen.“

Zu den weiteren Führungskräften, die OpenAI in den letzten Monaten verlassen haben, gehören CTO Mira Murati, Chief Research Officer Bob McGrew und Research VP Barret Zoph. Im August gaben außerdem der prominente Forscher Andrej Karpathy und Mitgründer John Schulman bekannt, dass sie das Startup verlassen würden. Einige dieser Leute, darunter Leike und Schulman, gingen, um sich einem OpenAI-Konkurrenten, Anthropic, anzuschließen, während andere ihre eigenen Unternehmen gründeten.

tch-1-tech