Warum führt der Name „David Mayer“ zum Absturz von ChatGPT? Anträge auf digitale Privatsphäre können schuld sein

Warum fuehrt der Name „David Mayer zum Absturz von ChatGPT

Nutzer der Konversations-KI-Plattform ChatGPT haben am Wochenende ein interessantes Phänomen entdeckt: Der beliebte Chatbot weigert sich, Fragen zu beantworten, wenn man ihn nach einem „David Mayer“ stellt. Wenn Sie es dazu auffordern, friert es sofort ein. Es folgten Verschwörungstheorien – doch hinter diesem seltsamen Verhalten könnte ein alltäglicherer Grund stecken.

Letztes Wochenende verbreitete sich schnell die Nachricht, dass der Name Gift für den Chatbot sei, und immer mehr Leute versuchten, den Dienst dazu zu bringen, lediglich den Namen anzuerkennen. Kein Glück: Jeder Versuch, ChatGPT dazu zu bringen, diesen bestimmten Namen zu buchstabieren, schlägt fehl oder bricht sogar den Zwischennamen ab.

„Ich kann keine Antwort geben“, heißt es dort, wenn überhaupt etwas steht.

Bildnachweis:Tech/OpenAI

Aber was als einmalige Kuriosität begann, blühte bald auf, als die Leute herausfanden, dass ChatGPT nicht nur David Mayer nennen kann.

Es wurde auch festgestellt, dass die Namen Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber und Guido Scorza den Dienst zum Absturz brachten. (Zweifellos wurden seitdem weitere entdeckt, daher ist diese Liste nicht vollständig.)

Wer sind diese Männer? Und warum hasst ChatGPT sie so? OpenAI hat auf wiederholte Anfragen nicht geantwortet, sodass es uns überlassen bleibt, die Teile so gut wie möglich selbst zusammenzusetzen.

Einige dieser Namen können einer beliebigen Anzahl von Personen gehören. Doch bald wurde ein möglicher Zusammenhang entdeckt: Bei diesen Personen handelte es sich um Persönlichkeiten des öffentlichen oder halböffentlichen Lebens, die es möglicherweise vorgezogen hätten, bestimmte Informationen von Suchmaschinen oder KI-Modellen „vergessen“ zu haben.

Brian Hood zum Beispiel fiel sofort auf, denn wenn es sich um denselben Typen handelt, habe ich letztes Jahr über ihn geschrieben. Hood, ein australischer Bürgermeister, beschuldigte ChatGPT, ihn fälschlicherweise als Täter eines jahrzehntelangen Verbrechens beschrieben zu haben, das er tatsächlich gemeldet hatte.

Obwohl seine Anwälte mit OpenAI Kontakt aufnahmen, wurde nie eine Klage eingereicht. Als er sagte der Sydney Morning Herald Anfang dieses Jahres wurde „das beleidigende Material entfernt und Version 4 veröffentlicht, die Version 3.5 ersetzt.“

1733174732 528 Warum fuehrt der Name „David Mayer zum Absturz von ChatGPT
Bildnachweis:Tech/OpenAI

Was die prominentesten Besitzer der anderen Namen betrifft, David Faber ist ein langjähriger Reporter bei CNBC. Jonathan Turley ist ein Anwalt und Fox News-Kommentator, der Ende 2023 „geschlagen“ wurde (d. h. ein gefälschter Notruf schickte bewaffnete Polizisten zu seinem Haus). Jonathan Zittrain ist auch ein Rechtsexperte, einer, der das getan hat ausführlich über das „Recht auf Vergessenwerden“ gesprochen. Und Guido Scorza ist im Vorstand der italienischen Datenschutzbehörde.

Nicht genau in der gleichen Branche, noch handelt es sich um eine zufällige Auswahl. Es ist denkbar, dass es sich bei jeder dieser Personen um jemanden handelt, der, aus welchem ​​Grund auch immer, offiziell darum gebeten hat, dass die ihn betreffenden Online-Informationen in irgendeiner Weise eingeschränkt werden.

Das bringt uns zurück zu David Mayer. Es gibt keinen Anwalt, Journalisten, Bürgermeister oder sonstwie offensichtlich bemerkenswerten Menschen mit diesem Namen, den irgendjemand finden könnte (mit Entschuldigung an die vielen angesehenen David Mayers da draußen).

Es gab jedoch einen Professor David Mayer, der Theater und Geschichte lehrte und sich auf Verbindungen zwischen dem späten viktorianischen Zeitalter und dem frühen Kino spezialisierte. Mayer starb im Sommer 2023 im Alter von 94 Jahren. Zuvor hatte der britisch-amerikanische Akademiker jedoch jahrelang mit dem rechtlichen und Online-Problem zu kämpfen, dass sein Name mit einem gesuchten Kriminellen in Verbindung gebracht wurde, der ihn quasi als Pseudonym verwendete wohin er nicht reisen konnte.

Mayer kämpfte ununterbrochen dafür, dass sein Name vom einarmigen Terroristen getrennt wurdeauch wenn er weiterhin unterrichtete bis weit in seine letzten Lebensjahre hinein.

Was können wir also aus all dem schließen? Da OpenAI keine offizielle Erklärung liefert, vermuten wir, dass das Modell eine Liste von Personen aufgenommen hat, deren Namen einer besonderen Behandlung bedürfen. Ob aus rechtlichen, sicherheitsbezogenen, datenschutzrechtlichen oder anderen Gründen – für diese Namen gelten wahrscheinlich besondere Regeln, ebenso wie für viele andere Namen und Identitäten. ChatGPT kann beispielsweise seine Antwort ändern, wenn Sie nach einem politischen Kandidaten fragen, nachdem dieser mit dem Namen übereinstimmt, den Sie in eine Liste dieser Kandidaten geschrieben haben.

Es gibt viele solcher Sonderregeln und jede Aufforderung durchläuft verschiedene Formen der Verarbeitung, bevor sie beantwortet wird. Diese Regeln für die Handhabung nach der Eingabeaufforderung werden jedoch selten veröffentlicht, außer in politischen Ankündigungen wie „Das Modell wird keine Wahlergebnisse für einen Kandidaten für ein Amt vorhersagen.“

Was wahrscheinlich passiert ist, ist, dass eine dieser Listen, die mit ziemlicher Sicherheit aktiv gepflegt oder automatisch aktualisiert werden, irgendwie durch fehlerhaften Code beschädigt wurde, der beim Aufruf dazu führte, dass der Chat-Agent sofort abstürzte. Um es klarzustellen: Dies ist nur unsere eigene Spekulation, die auf dem basiert, was wir gelernt haben, aber es wäre nicht das erste Mal, dass sich eine KI aufgrund von Anleitungen nach dem Training seltsam verhält. (Während ich das schrieb, fing „David Mayer“ übrigens bei einigen wieder an zu funktionieren, während die anderen Namen immer noch für Abstürze sorgten.)

Wie es bei diesen Dingen normalerweise der Fall ist, gilt auch bei Hanlons Rasiermesser: Führe niemals Bosheit (oder Verschwörung) zu, was durch Dummheit (oder Syntaxfehler) hinreichend erklärt werden kann.

Das ganze Drama ist eine nützliche Erinnerung daran, dass diese KI-Modelle nicht nur keine Magie sind. Sie sind besonders ausgefallene Autovervollständigungsfunktionen, die von den Unternehmen, die sie herstellen, aktiv überwacht und beeinträchtigt werden. Wenn Sie das nächste Mal darüber nachdenken, Fakten von einem Chatbot zu erhalten, denken Sie darüber nach, ob es nicht besser wäre, direkt zur Quelle zu gehen.

tch-1-tech