Dave Willner, Leiter für Vertrauen und Sicherheit bei OpenAI, tritt zurück

Dave Willner Leiter fuer Vertrauen und Sicherheit bei OpenAI tritt

Es steht ein bedeutender Personalwechsel an OpenAI, der Moloch der künstlichen Intelligenz, der mit der Einführung von ChatGPT das Konzept der generativen KI fast im Alleingang in den globalen öffentlichen Diskurs eingeführt hat. Dave Willner, ein Branchenveteran und Leiter für Vertrauen und Sicherheit des Startups, gab in einem bekannt auf LinkedIn posten Gestern Abend gab er bekannt, dass er den Job aufgegeben hat und in eine beratende Funktion gewechselt ist. Er plane, mehr Zeit mit seiner jungen Familie zu verbringen, sagte er. Er war seit anderthalb Jahren in dieser Rolle.

Sein Abgang kommt zu einem kritischen Zeitpunkt für die Welt der KI.

Neben all der Aufregung über die Fähigkeiten generativer KI-Plattformen – die auf großen Sprachmodellen basieren und blitzschnell frei generierte Texte, Bilder, Musik und mehr basierend auf einfachen Eingabeaufforderungen der Benutzer produzieren – gibt es eine wachsende Liste von Fragen. Wie lassen sich Aktivitäten und Unternehmen in dieser schönen neuen Welt am besten regulieren? Wie können schädliche Auswirkungen bei einem ganzen Spektrum von Problemen am besten abgemildert werden? Vertrauen und Sicherheit sind grundlegende Bestandteile dieser Gespräche.

Gerade heute wird der Präsident von OpenAI, Greg Brockman, zusammen mit Führungskräften von Anthropic, Google, Inflection, Microsoft, Meta und Amazon im Weißen Haus erscheinen, um freiwillige Verpflichtungen zur Verfolgung gemeinsamer Sicherheits- und Transparenzziele im Vorfeld einer in Arbeit befindlichen AI Executive Order zu unterstützen. Dies ist auf den großen Aufruhr in Europa im Zusammenhang mit der KI-Regulierung zurückzuführen wechselnde Gefühle unter einige andere.

Die Wichtigkeit all dessen geht OpenAI nicht verloren, das dies versucht hat sich positionieren als bewusster und verantwortungsbewusster Spieler auf dem Feld.

Willner erwähnt in seinem LinkedIn-Beitrag nicht ausdrücklich darauf. Stattdessen hält er es auf hohem Niveau, bemerkt er dass die Anforderungen seines OpenAI-Jobs nach dem Start von ChatGPT in eine „Phase hoher Intensität“ übergingen.

„Ich bin stolz auf alles, was unser Team in meiner Zeit bei OpenAI erreicht hat, und obwohl mein Job dort einer der coolsten und interessantesten Jobs war, die man heute haben kann, ist er seit meinem ersten Einstieg auch in seinem Umfang und Umfang dramatisch gewachsen“, schrieb er. Während er und seine Frau – Chariotte Willner, die ebenfalls Vertrauens- und Sicherheitsspezialistin ist – sich beide verpflichteten, die Familie immer an die erste Stelle zu setzen, sagte er: „In den Monaten nach der Einführung von ChatGPT fiel es mir immer schwerer, meinen Teil der Abmachung einzuhalten.“

Willner ist erst seit 1,5 Jahren in seinem OpenAI-Posten tätig, kann jedoch auf eine lange Karriere in diesem Bereich zurückblicken, zu der auch die Leitung von Vertrauens- und Sicherheitsteams bei Facebook und Airbnb gehört.

Besonders interessant ist die Facebook-Arbeit. Dort war er einer der ersten Mitarbeiter, der dazu beitrug, die erste Position des Unternehmens zu Gemeinschaftsstandards zu formulieren, die auch heute noch als Grundlage für den Ansatz des Unternehmens dient.

Das war eine sehr prägende Zeit für das Unternehmen und – angesichts des Einflusses, den Facebook auf die Entwicklung der sozialen Medien weltweit hatte – wohl auch für das Internet und die Gesellschaft insgesamt. Einige dieser Jahre waren geprägt von sehr deutlichen Positionen zur Meinungsfreiheit und davon, dass Facebook Aufrufen zur Eindämmung kontroverser Gruppen und kontroverser Beiträge widerstehen musste.

Ein typisches Beispiel war ein sehr großer Streit im Jahr 2009, der im öffentlichen Forum darüber ausgetragen wurde, wie Facebook mit Konten und Beiträgen von Holocaustleugnern umgeht. Einige Mitarbeiter und externe Beobachter waren der Ansicht, dass Facebook die Pflicht habe, Stellung zu beziehen und diese Beiträge zu verbieten. Andere waren der Ansicht, dass dies einer Zensur gleichkäme, und vermittelten dem freien Diskurs ein falsches Signal.

Willner gehörte zum letzteren Lager und glaubte, dass „Hassrede“ nicht dasselbe sei wie „direkter Schaden“ und daher nicht auf die gleiche Weise moderiert werden sollte. „Ich glaube nicht, dass Holocaust-Leugnung eine Idee ist [sic] „Das eigene Eigentum stellt von Natur aus eine Gefahr für die Sicherheit anderer dar“, schrieb er damals. (Einen Einblick in die Tech-Vergangenheit finden Sie hier im vollständigen Beitrag dazu.)

Rückblickend war es angesichts der vielen anderen Ereignisse eine ziemlich kurzsichtige und naive Position. Aber es scheint, dass sich zumindest einige dieser Ideen weiterentwickelt haben. Bis 2019 war er nicht mehr bei dem sozialen Netzwerk beschäftigt sich dagegen aussprechen wie das Unternehmen Politikern und Persönlichkeiten des öffentlichen Lebens schwächere Ausnahmen für die Moderation von Inhalten gewähren wollte.

Aber wenn die Notwendigkeit, bei Facebook die richtigen Grundlagen zu schaffen, größer war, als man damals erwartete, so ist dies heute bei der neuen Technologiewelle wohl noch mehr der Fall. Demzufolge Geschichte der New York Times Vor weniger als einem Monat war Willner zunächst zu OpenAI geholt worden, um herauszufinden, wie man Dall-E, den Bildgenerator des Startups, davon abhalten kann, missbraucht und für Dinge wie die Erstellung generativer KI-Kinderpornografie verwendet zu werden.

Aber wie die Das Sprichwort besagt, OpenAI (und die Branche) brauchten diese Richtlinie gestern. „Innerhalb eines Jahres werden wir in diesem Bereich einen sehr problematischen Zustand erreichen“, sagte David Thiel, der Cheftechnologe des Stanford Internet Observatory, gegenüber der NYT.

Wer wird nun ohne Willner die Aufgabe von OpenAI leiten, dieses Problem anzugehen?

(Wir haben OpenAI um einen Kommentar gebeten und werden diesen Beitrag mit etwaigen Antworten aktualisieren.)

tch-1-tech