Berichten zufolge untersucht die FTC OpenAI wegen „Reputationsschadens“, der durch ChatGPT verursacht wurde

Berichten zufolge befindet sich die FTC zumindest in der Sondierungsphase der Untersuchung von OpenAI, ob die Flaggschiff-Konversations-KI des Unternehmens, ChatGPT, „falsche, irreführende, herabwürdigende oder schädliche“ Aussagen über Menschen gemacht hat. Es scheint unwahrscheinlich, dass dies zu einem plötzlichen Durchgreifen führen wird, aber es zeigt, dass die FTC mehr tut, als die KI-Industrie vor möglichen Verstößen zu warnen.

Die Washington Post berichtete zuerst über die Nachricht, unter Berufung auf den Zugang zu einem 20-seitigen Brief an OpenAI, in dem um Informationen zu Beschwerden über Herabwürdigung gebeten wurde. Die FTC lehnte eine Stellungnahme ab und wies darauf hin, dass ihre Untersuchungen nicht öffentlich seien.

Im Februar kündigte die Regulierungsbehörde ein neues Office of Technology an, das sich mit dem „Schlangenöl“ des Technologiesektors befassen soll, und warnte kurz darauf Unternehmen, die Behauptungen im Zusammenhang mit KI aufstellen, dass für sie dieselben Wahrheitsanforderungen gelten wie für alle anderen. „Halten Sie Ihre KI-Ansprüche unter Kontrolle“, schrieben sie – andernfalls wird die FTC es tun.

Obwohl es sich bei dem in der Post veröffentlichten Brief nicht um das erste Mal handelt, dass die Agentur eine der vielen Formen der KI annimmt, scheint er doch anzukündigen, dass der derzeit weltweit unangefochtene Marktführer auf diesem Gebiet, OpenAI, bereit sein muss, sich zu rechtfertigen.

Eine solche Untersuchung kommt nicht einfach aus dem Nichts – die FTC schaut sich nicht um und sagt: „Das sieht verdächtig aus.“ Im Allgemeinen wird ihnen eine Klage oder eine formelle Beschwerde vorgelegt, und die darin beschriebenen Praktiken implizieren, dass Vorschriften ignoriert werden. Beispielsweise kann eine Person einen Hersteller von Nahrungsergänzungsmitteln verklagen, weil sie durch die Pillen krank geworden ist, und die FTC wird daraufhin eine Untersuchung einleiten, weil es Beweise dafür gibt, dass der Hersteller über die Nebenwirkungen gelogen hat.

In diesem Fall besteht eine hohe Wahrscheinlichkeit, dass eine Klage wie diese, in der sich ein australischer Bürgermeister bei OpenAI darüber beschwerte, dass ChatGPT sagte, er sei unter anderem der Bestechung beschuldigt und zu einer Gefängnisstrafe verurteilt worden, eine Untersuchung auslösen könnte. (Diese Angelegenheit ist noch nicht abgeschlossen und natürlich ist die Rechtsprechung falsch, aber es gibt mit ziemlicher Sicherheit noch mehr davon.)

Die Veröffentlichung solcher Dinge könnte einer Verleumdung oder Verleumdung oder einfach einer „Reputationsschädigung“ gleichkommen, wie sie im aktuellen Brief der FTC an OpenAI genannt wird. Es handelt sich mit ziemlicher Sicherheit um ChatGPT, da es das einzige wirklich öffentliche Produkt im OpenAI-Portfolio ist, das so etwas leisten könnte – GPT-4 und die anderen APIs sind etwas zu stark eingeschränkt (und zu neu), um in Betracht gezogen zu werden.

Es ist kaum ein Volltreffer: Allein die technischen Aspekte lassen die Frage aufkommen, ob es sich dabei um eine Veröffentlichung oder eine Rede oder gar um etwas anderes als eine private Kommunikation handelt – alles müsste bewiesen werden.

Aber es ist auch nicht abwegig, ein Unternehmen um eine Erklärung zu bitten. Es ist eine Sache, einen Fehler zu machen, eine andere, systematisch und unbemerkt Details über Menschen in großem Maßstab zu erfinden und nichts darüber zu sagen. Wenn die Rechtschreibprüfung von Microsoft Word gelegentlich „verurteilter Krimineller“ vor den Namen von Personen einfügt, können Sie davon ausgehen, dass es einen Aufruhr geben würde.

Obwohl die FTC in letzter Zeit einige aufsehenerregende Niederlagen einstecken musste, da ihre Anti-Fusions-Bemühungen gegen Meta und Microsoft abgeschossen wurden, hat sie auch Technologieunternehmen wegen Datenschutzproblemen und sogar Verstößen im Bereich der KI angeklagt.

tch-1-tech