Kann KI Verleumdung begehen? Wir werden es gleich herausfinden

Die Kolosseen von Elden Ring oeffnen morgen endlich im kostenlosen

Das heißeste neue Spielzeug der Tech-Welt könnte legal in heißes Wasser geraten, da die Tendenz der KI, Nachrichtenartikel und Ereignisse zu erfinden, auf Verleumdungsgesetze stößt. Kann ein KI-Modell wie ChatGPT sogar Verleumdung begehen? Wie so vieles rund um die Technologie ist sie unbekannt und beispiellos – aber bevorstehende rechtliche Herausforderungen können dies ändern.

Verleumdung wird allgemein definiert als das Veröffentlichen oder Äußern schädlicher und unwahrer Aussagen über jemanden. Es ist ein komplexes und nuanciertes Rechtsgebiet, das sich auch von Gerichtsbarkeit zu Gerichtsbarkeit stark unterscheidet: Ein Verleumdungsfall in den USA unterscheidet sich stark von einem im Vereinigten Königreich oder in Australien – dem Schauplatz des heutigen Dramas.

Die generative KI hat bereits zahlreiche unbeantwortete rechtliche Fragen aufgeworfen, zum Beispiel, ob die Verwendung von urheberrechtlich geschütztem Material eine faire Verwendung oder eine Verletzung darstellt. Aber noch vor einem Jahr waren weder bild- noch textgenerierende KI-Modelle gut genug, um etwas zu produzieren, das man mit der Realität verwechseln würde, also waren Fragen nach falschen Darstellungen rein akademisch.

Jetzt nicht mehr so ​​sehr: Das große Sprachmodell hinter ChatGPT und Bing Chat ist ein Bullshit-Künstler, der in enormem Umfang operiert, und seine Integration mit Mainstream-Produkten wie Suchmaschinen (und zunehmend fast allem anderen) erhebt das System wohl vom fehlerhaften Experiment zur Masse Publishing-Plattform.

Was passiert also, wenn das Tool/die Plattform schreibt, dass ein Regierungsbeamter wegen Fehlverhaltens angeklagt wurde oder dass ein Universitätsprofessor wegen sexueller Belästigung angeklagt wurde?

Vor einem Jahr, ohne breite Integrationen und wenig überzeugende Sprache, würden nur wenige sagen, dass solche falschen Aussagen ernst genommen werden könnten. Aber heute beantworten diese Modelle Fragen selbstbewusst und überzeugend auf allgemein zugänglichen Verbraucherplattformen, selbst wenn diese Antworten halluziniert oder fälschlicherweise nicht existierenden Artikeln zugeschrieben werden. Sie schreiben echten Artikeln falsche Aussagen oder erfundenen wahre Aussagen zu oder erfinden alles.

Aufgrund der Art und Weise, wie diese Modelle funktionieren, wissen sie nicht oder kümmern sich nicht darum, ob etwas wahr ist, sondern nur darum, dass es wahr aussieht. Das ist ein Problem, wenn Sie es verwenden, um Ihre Hausaufgaben zu machen, sicher, aber wenn es Sie eines Verbrechens beschuldigt, das Sie nicht begangen haben, kann das an dieser Stelle durchaus eine Verleumdung sein.

Das ist die Behauptung von Brian Hood, Bürgermeister von Hepburn Shire in Australien, als er darüber informiert wurde, dass ChatGPT ihn als vor 20 Jahren in einem Bestechungsskandal verurteilt nannte. Der Skandal war real – und Hood war darin verwickelt. Aber er war derjenige, der deswegen zu den Behörden ging und nie eines Verbrechens angeklagt wurde, wie Reuters seine Anwälte mitteilen.

Nun ist klar, dass diese Aussage falsch und zweifellos schädlich für Hoods Ruf ist. Aber wer hat die Aussage gemacht? Ist es OpenAI, der die Software entwickelt hat? Ist es Microsoft, das es lizenziert und unter Bing bereitgestellt hat? Ist es die Software selbst, die als automatisiertes System fungiert? Wenn ja, wer haftet dafür, dass dieses System den Auszug erstellt? Bedeutet die Abgabe einer solchen Aussage in einem solchen Umfeld eine „Veröffentlichung“ oder handelt es sich eher um ein Gespräch zwischen zwei Personen? Wäre es in diesem Fall eine Verleumdung? Wussten OpenAI oder ChatGPT, dass diese Informationen falsch waren, und wie definieren wir in einem solchen Fall Fahrlässigkeit? Kann ein KI-Modell Bosheit zeigen? Kommt es auf das Gesetz, den Fall, den Richter an?

Dies sind alles offene Fragen, da die Technologie, um die es geht, vor einem Jahr noch nicht existierte, geschweige denn, als Gesetze und Präzedenzfälle geschaffen wurden, die Verleumdung rechtlich definieren. Während es auf einer Ebene albern erscheinen mag, einen Chatbot zu verklagen, weil er etwas Falsches gesagt hat, sind Chatbots nicht mehr das, was sie einmal waren. Da einige der größten Unternehmen der Welt sie als die nächste Generation des Informationsabrufs vorschlagen und Suchmaschinen ersetzen, sind diese kein Spielzeug mehr, sondern Werkzeuge, die regelmäßig von Millionen von Menschen verwendet werden.

Hood hat einen Brief an OpenAI geschickt, in dem er darum bittet, etwas dagegen zu unternehmen – es ist nicht wirklich klar, was es tun kann oder ob es durch australisches oder US-amerikanisches Recht dazu gezwungen wird oder irgendetwas anderes. Aber in einem anderen Fall aus jüngster Zeit, einem Juraprofessor wurde der sexuellen Belästigung beschuldigt B. durch einen Chatbot, der einen fiktiven Artikel der Washington Post zitiert. Und es ist wahrscheinlich, dass solche falschen und potenziell schädlichen Aussagen häufiger vorkommen, als wir denken – sie werden gerade jetzt ernst und genug, um eine Meldung an die beteiligten Personen zu rechtfertigen.

Dies ist erst der Anfang dieses juristischen Dramas, und selbst Anwälte und KI-Experten haben keine Ahnung, wie es ausgehen wird. Aber wenn Unternehmen wie OpenAI und Microsoft (ganz zu schweigen von jedem anderen großen Technologieunternehmen und einigen hundert Startups) erwarten, dass ihre Systeme als Informationsquellen ernst genommen werden, können sie die Konsequenzen dieser Behauptungen nicht vermeiden. Sie können Rezepte und Reiseplanung als Ausgangspunkte vorschlagen, aber die Leute verstehen, dass die Unternehmen sagen, dass diese Plattformen eine Quelle der Wahrheit sind.

Werden diese beunruhigenden Aussagen zu echten Klagen? Werden diese Klagen beigelegt, bevor sich die Branche erneut verändert? Und wird all dies durch die Gesetzgebung in den Gerichtsbarkeiten erörtert, in denen die Fälle verfolgt werden? Es stehen einige interessante Monate (oder eher Jahre) bevor, in denen Technik- und Rechtsexperten versuchen, das sich am schnellsten bewegende Ziel der Branche anzugehen.

tch-1-tech