Chatgpt Hit mit Datenschutzbeschwerden über diffamierende Halluzinationen

Chatgpt Hit mit Datenschutzbeschwerden ueber diffamierende Halluzinationen

OpenAI steht in Europa mit einer weiteren Datenschutzbeschwerde gegenüber der Tendenz seines Virus -KI -Chatbots, falsche Informationen zu halluzinieren – und dieser könnte sich für die Aufsichtsbehörden als schwierig erweisen, ignorieren zu können.

Privacy Rights Advocacy Group Noyb unterstützt eine Person in Norwegen, die entsetzt war, als Chatgpt erfundene Informationen zurückgegeben hat, die behaupteten, er sei wegen Mordes an zwei seiner Kinder verurteilt worden, und versuchte, die dritte zu töten.

Frühere Datenschutzbeschwerden über Chatgpt, die falsche personenbezogene Daten generieren, haben Probleme wie ein falsches Geburtsdatum oder biografische Details beteiligt, die falsch sind. Eine Sorge ist, dass OpenAI keine Möglichkeit für Einzelpersonen bietet, falsche Informationen zu korrigieren, die die KI über sie generiert. In der Regel hat Openai angeboten, Antworten für solche Eingabeaufforderungen zu blockieren. Nach der allgemeinen Datenschutzverordnung der Europäischen Union (DSGVO) verfügen die Europäer jedoch über eine Reihe von Datenzugriffsrechten, die das Recht auf Berichtigung personenbezogener Daten enthalten.

Eine weitere Komponente dieses Datenschutzgesetzes verlangt Datencontroller, um sicherzustellen, dass die personenbezogenen Daten, die sie über Einzelpersonen erstellen, korrekt sind – und das ist ein Problem, das Noyb mit seiner neuesten Chatgpt -Beschwerde kennzeichnet.

„Die DSGVO ist klar. Die personenbezogenen Daten müssen korrekt sein“, sagte Joakim Söderberg, Datenschutzanwalt bei NoyB, in einer Erklärung. „Wenn dies nicht der Fall ist, haben Benutzer das Recht, es geändert zu haben, um die Wahrheit widerzuspiegeln. Die Chatgpt -Benutzer zeigen einen winzigen Haftungsausschluss, den der Chatbot eindeutig Fehler machen kann.

Bestätigte Verstöße gegen die DSGVO können zu Strafen von bis zu 4% des globalen Jahresumsatzes führen.

Die Durchsetzung könnte auch Änderungen der KI -Produkte erzwingen. Bemerkenswerterweise führte eine frühe DSGVO -Intervention durch den italienischen Datenschutz -Watchdog, bei dem Chatgpt -Zugriff im Frühjahr 2023 vorübergehend im Land blockiert wurde, OpenAI, um beispielsweise Änderungen an den Informationen vorzunehmen. Der Watchdog ging anschließend mit 15 Millionen Euro ein für die Verarbeitung von Daten der Personen ohne angemessene rechtliche Grundlage.

Seitdem ist es jedoch fair zu sagen, dass Datenschutzwächter in ganz Europa einen vorsichtigeren Ansatz für Genai verfolgt haben, wenn sie versuchen, herauszufinden, wie die DSGVO am besten auf diese mühsamen KI -Tools angewendet werden kann.

Vor zwei Jahren hat die Irlands Data Protection Commission (DPC) – die eine führende DSGVO -Durchsetzungsrolle in einer früheren NOYB -Chatgpt -Beschwerde spielt – – aufgefordert, sich zu beeilen, um zu verbieten Zum Beispiel Genai -Tools. Dies deutet darauf hin, dass die Aufsichtsbehörden stattdessen Zeit in Anspruch nehmen sollten, um herauszufinden, wie das Gesetz gilt.

Und es ist bemerkenswert, dass eine Datenschutzbeschwerde gegen ChatGPT, die seit September 2023 vom Datenschutz -Wachhund in Polen untersucht wird, immer noch keine Entscheidung getroffen hat.

Noybs neue Chatgpt -Beschwerde sieht dazu gedacht aus, dass Datenschutzbehörden wach von den Gefahren halluzinierender KIS wach werden.

Die gemeinnützige Organisation teilte den (unten) Screenshot mit Tech mit, das eine Interaktion mit Chatgpt zeigt, in der die KI auf eine Frage beantwortet, in der „Wer ist Hjalmar Holmen?“ – Der Name der Person, die die Beschwerde einbringt – durch die Erzeugung einer tragischen Fiktion, die fälschlicherweise angibt, dass er wegen Kindermordes verurteilt und zu 21 Jahren Gefängnis verurteilt wurde, weil er zwei seiner eigenen Söhne getötet hatte.

Während die diffamierende Behauptung, dass Hjalmar Holmen ein Kindermörder ist, völlig falsch ist, stellt Noyb fest, dass Chatgpts Antwort einige Wahrheiten enthält, da die betreffende Person drei Kinder hat. Der Chatbot hat auch die Geschlechter seiner Kinder richtig gemacht. Und seine Heimatstadt ist richtig benannt. Aber das macht es nur umso bizarrer und beunruhigender als der KI, der so grausame Falschheit halluziert hat.

Ein Sprecher von NoyB sagte, er könne nicht feststellen, warum der Chatbot für diese Person eine so spezifische, aber falsche Geschichte produzierte. „Wir haben recherchiert, um sicherzustellen, dass dies nicht nur eine Verwechslung mit einer anderen Person war“, sagte der Sprecher und stellte fest, dass sie sich mit Zeitungsarchiven befasst hatten, aber keine Erklärung dafür gefunden hatte, warum die KI-erfundene Kinder mit Kindern erfunden hatte.

Großsprachige Modelle wie die eine zugrunde liegende ChatGPT machen im Wesentlichen das nächste Word -Vorhersage in großer Ebene, sodass wir spekulieren können, dass Datensätze, die zum Training des Tools verwendet wurden, viele Filizidgeschichten enthielten, die die Wortauswahl als Antwort auf eine Abfrage zu einem genannten Mann beeinflussten.

Unabhängig von der Erklärung ist klar, dass solche Ausgaben völlig inakzeptabel sind.

Noybs Behauptung ist auch, dass sie nach den EU -Datenschutzregeln rechtswidrig sind. Und während OpenAI am unteren Bildschirmrand einen winzigen Haftungsausschluss zeigt, in dem es heißt, „Chatgpt kann Fehler machen. Überprüfen Sie wichtige Informationen“, heißt es, dass dies den KI -Entwickler seiner Pflicht unter DSGVO nicht entbinden kann, nicht in erster Linie ungeheuerliche Unwahrheiten über Menschen zu produzieren.

Openai wurde für eine Antwort auf die Beschwerde kontaktiert.

Während diese DSGVO in einem Bestechungs- und Korruptionsskandal beteiligt oder Ein deutscher Journalist, der fälschlicherweise als Kindermissbraucher genannt wurde – Es ist klar, dass dies kein isoliertes Problem für das KI -Tool ist.

Eine wichtige Sache zu beachten ist, dass Noyb nach einem Update auf das zugrunde liegende KI -Modell die gefährliche Falschheit über Hjalmar Holmen einstellte, dass der Chatbot nicht mehr mit dem Tool verlinkt, um das Internet nach Informationen über Menschen zu suchen, wenn sie gefragt wurden, wer sie sind (wozu die leere Datensätze in seiner Datensätze vermutlich die Reaktion des Datensatzes.

In unseren eigenen Tests fragen Chatgpt: „Wer ist Arve Hjalmar Holmen?“ Der Chatgpt antwortete zunächst mit einer etwas seltsamen Kombination, indem er einige Fotos von verschiedenen Personen, anscheinend von Websites wie Instagram, SoundCloud und Discogs, neben Text angezeigt hat, in dem behauptet wurde, er könne keine Informationen über eine Person dieses Namens finden (siehe unser Screenshot unten). Ein zweiter Versuch ergab eine Antwort, die Arve Hjalmar Holmen als „norwegischer Musiker und Songwriter“ identifizierte, zu dessen Alben „Honky Tonk Inferno“ gehören.

Chatgpt Hit mit Datenschutzbeschwerden ueber diffamierende Halluzinationen
Chatgpt Shot: Natasha Lomas/Tech

Während Chatgpt-generierte gefährliche Lüge über Hjalmar-Holmen anscheinend gestoppt zu sein scheinen, sind sowohl Noyb als auch Hjalmar Holmen besorgt darüber, dass falsche und diffamierende Informationen über ihn innerhalb des KI-Modells beibehalten werden könnten.

„Hinzufügen eines Haftungsausschlusss, dass Sie das Gesetz nicht einhalten, lässt das Gesetz nicht verschwinden“, bemerkte Kleanthi Sardeli, ein weiterer Datenschutzanwalt in Noyb, in einer Erklärung. „KI -Unternehmen können auch nicht nur falsche Informationen von Benutzern“ verbergen „, während sie intern noch falsche Informationen verarbeiten.“

„KI -Unternehmen sollten aufhören, so zu handeln, als ob die DSGVO nicht für sie gilt, wenn es eindeutig der Fall ist“, fügte sie hinzu. „Wenn Halluzinationen nicht gestoppt werden, können die Menschen leicht an Reputationsschäden erleiden.“

Noyb hat die Beschwerde gegen OpenAI bei der norwegischen Datenschutzbehörde eingereicht – und es hofft, dass der Wachhund entscheiden wird, dass es kompetent ist, zu untersuchen, da OYB die Beschwerde bei OpenAs US -Unternehmen abzielt und argumentiert, dass sein Büro in Irland nicht nur für Produktentscheidungen verantwortlich ist, die sich auf die Europäer auswirken.

Eine frühere Noyb-von-DSGVO-Beschwerde gegen Openai, die im April 2024 in Österreich eingereicht wurde, wurde jedoch von der Regulierungsbehörde an Irlands DPC überwiesen, weil Openai Anfang des Jahres ihre irische Abteilung als Provider des Chatgpt-Dienstes an regionale Nutzer benannte.

Wo ist diese Beschwerde jetzt? Immer noch auf einem Schreibtisch in Irland sitzen.

„Nachdem die DPC im September 2024 die Beschwerde von der österreichischen Aufsichtsbehörde erhalten hatte, begann sie mit dem formellen Umgang mit der Beschwerde und dauert noch an“, sagte Ristard Byrne, stellvertretender Hauptbeauftragter der Kommunikation für die DPC, gegenüber Tech, als er um ein Update verlangte.

Er bot keinen Lenkern an, als die Untersuchung der Halluzinationen von Chatgpt durch die DPC abschließen wird.

tch-1-tech