Chatgpt: Italien blockiert vorübergehend ChatGPT, hier ist der Grund

Chatgpt Italien blockiert voruebergehend ChatGPT hier ist der Grund
ROM: Italien blockiert vorübergehend die Software für künstliche Intelligenz ChatGPT im Gefolge einer Datenschutzverletzung bei der Untersuchung eines möglichen Verstoßes gegen strenge Datenschutzbestimmungen der Europäischen Union, sagte der Datenschutzbeauftragte der Regierung am Freitag.
Die italienische Datenschutzbehörde sagte, sie ergreife vorläufige Maßnahmen, „bis ChatGPT die Privatsphäre respektiert“, einschließlich der vorübergehenden Einschränkung der Verarbeitung italienischer Benutzerdaten durch das Unternehmen.
Das in den USA ansässige OpenAI, das ChatGPT entwickelt hat, hat am Freitag keine Anfrage nach einem Kommentar beantwortet.
Während einige öffentliche Schulen und Universitäten auf der ganzen Welt die ChatGPT-Website wegen Plagiatsproblemen von Schülern aus ihren lokalen Netzwerken gesperrt haben, war nicht sofort klar, wann oder wie Italien sie landesweit sperren würde.
Es ist auch unwahrscheinlich, dass sich der Schritt auf Anwendungen von Unternehmen auswirkt, die bereits Lizenzen mit OpenAI haben, um dieselbe Technologie zu verwenden, die den Chatbot antreibt, wie z. B. die Bing-Suchmaschine von Microsoft.
Die KI-Systeme, die solche Chatbots antreiben, bekannt als große Sprachmodelle, sind in der Lage, menschliche Schreibstile nachzuahmen, basierend auf der riesigen Fundgrube an digitalen Büchern und Online-Schriften, die sie aufgenommen haben.
Die italienische Aufsichtsbehörde sagte, dass OpenAI innerhalb von 20 Tagen berichten muss, welche Maßnahmen es ergriffen hat, um die Privatsphäre der Benutzerdaten zu gewährleisten, oder mit einer Geldstrafe von bis zu 20 Millionen Euro (fast 22 Millionen US-Dollar) oder 4 % des weltweiten Jahresumsatzes rechnen muss.
Die Erklärung der Agentur zitiert die Datenschutz-Grundverordnung der EU und stellt fest, dass ChatGPT am 20. März eine Datenschutzverletzung erlitten hat, bei der es um „Benutzergespräche“ und Informationen über Abonnentenzahlungen ging.
OpenAI gab zuvor bekannt, dass es ChatGPT am 20. März offline nehmen musste, um einen Fehler zu beheben, der es einigen Leuten ermöglichte, die Titel oder Betreffzeilen des Chatverlaufs anderer Benutzer zu sehen.
„Unsere Untersuchung hat auch ergeben, dass 1,2 % der ChatGPT Plus-Benutzer möglicherweise persönliche Daten an einen anderen Benutzer weitergegeben haben“, sagte das Unternehmen. „Wir glauben, dass die Zahl der Benutzer, deren Daten tatsächlich an jemand anderen weitergegeben wurden, extrem gering ist, und wir haben diejenigen kontaktiert, die möglicherweise betroffen sind.“
Italiens Datenschutzbeauftragter beklagte das Fehlen einer Rechtsgrundlage, um die „massive Erfassung und Verarbeitung personenbezogener Daten“ von OpenAI zu rechtfertigen, die zum Trainieren der Algorithmen der Plattform verwendet werden, und dass das Unternehmen die Benutzer, deren Daten es erfasst, nicht benachrichtigt.
Die Agentur sagte auch, dass ChatGPT manchmal falsche Informationen über Einzelpersonen generieren und speichern kann.
Schließlich wurde festgestellt, dass es kein System gibt, um das Alter der Benutzer zu überprüfen, wodurch Kinder Antworten ausgesetzt werden, die „für ihr Alter und Bewusstsein absolut unangemessen“ sind.
Der Schritt des Watchdogs kommt, während die Besorgnis über den Boom der künstlichen Intelligenz wächst. Eine Gruppe von Wissenschaftlern und führenden Vertretern der Technologiebranche hat am Mittwoch einen Brief veröffentlicht, in dem Unternehmen wie OpenAI aufgefordert werden, die Entwicklung leistungsfähigerer KI-Modelle bis zum Herbst auszusetzen, um der Gesellschaft Zeit zu geben, die Risiken abzuwägen.
Der Präsident der italienischen Datenschutzbehörde sagte am Freitagabend gegenüber dem italienischen Staatsfernsehen, er sei einer der Unterzeichner des Appells. Pasquale Stanzione sagte, er habe dies getan, weil „es nicht klar ist, welche Ziele letztendlich von den Entwicklern der KI verfolgt werden“.
Wenn KI in die „Selbstbestimmung“ einer Person „eingreifen“ sollte, dann „ist das sehr gefährlich“, sagte Stanzione. Auch das Fehlen von Filtern für Nutzer unter 13 Jahren bezeichnete er als „ziemlich gravierend“.
Auch andere äußerten Bedenken.
„Obwohl nicht klar ist, wie durchsetzbar diese Entscheidungen sein werden, zeigt die bloße Tatsache, dass es eine Diskrepanz zwischen der technologischen Realität vor Ort und den rechtlichen Rahmenbedingungen in Europa zu geben scheint, dass an der Aufforderung des Schreibens nach einer Pause etwas dran sein könnte.“ damit unsere kulturellen Werkzeuge aufholen können“, sagte Nello Cristianini, KI-Professor an der University of Bath.
CEO von OpenAI aus San Francisco, Sam Altmann, gab diese Woche bekannt, dass er sich im Mai auf eine Reise durch sechs Kontinente begibt, um mit Benutzern und Entwicklern über die Technologie zu sprechen. Dazu gehören ein geplanter Zwischenstopp in Brüssel, wo die Gesetzgeber der Europäischen Union weitreichende neue Regeln zur Begrenzung risikoreicher KI-Tools ausgehandelt haben, sowie Besuche in Madrid, München, London und Paris.
Die europäische Verbrauchergruppe BEUC forderte am Donnerstag die EU-Behörden und die 27 Mitgliedsstaaten des Blocks auf, ChatGPT und ähnliche KI-Chatbots zu untersuchen. BEUC sagte, dass es Jahre dauern könnte, bis die KI-Gesetzgebung der EU in Kraft tritt, sodass die Behörden schneller handeln müssen, um die Verbraucher vor möglichen Risiken zu schützen.
„In nur wenigen Monaten haben wir eine massive Akzeptanz von ChatGPT festgestellt, und dies ist erst der Anfang“, sagte die stellvertretende Generaldirektorin Ursula Pachl.
Auf das KI-Gesetz der EU zu warten, „reicht nicht aus, da es ernsthafte Bedenken gibt, wie ChatGPT und ähnliche Chatbots Menschen täuschen und manipulieren könnten“.

toi-tech