Der YouTube-Fall vor dem Obersten US-Gericht könnte den Schutz von ChatGPT und KI beeinflussen

Wenn das Oberster US-Gerichtshof in den kommenden Monaten entscheidet, ob ein mächtiger Schild zum Schutz von Internetunternehmen geschwächt werden soll, könnte das Urteil auch Auswirkungen auf sich schnell entwickelnde Technologien wie den Chatbot ChatGPT für künstliche Intelligenz haben. Die Richter sollen bis Ende Juni entscheiden, ob YouTube von Alphabet Inc. wegen seiner Videoempfehlungen an Nutzer verklagt werden kann. Dieser Fall testet, ob ein US-Gesetz, das Technologieplattformen vor der rechtlichen Verantwortung für von ihren Nutzern online gestellte Inhalte schützt, auch dann gilt, wenn Unternehmen Algorithmen verwenden, um Nutzer mit Empfehlungen anzusprechen.

Was das Gericht zu diesen Fragen entscheidet, ist über Social-Media-Plattformen hinaus relevant. Sein Urteil könnte die aufkommende Debatte darüber beeinflussen, ob Unternehmen, die generative KI-Chatbots entwickeln, wie ChatGPT von OpenAI, einem Unternehmen, in das Microsoft Corp ein wichtiger Investor ist, oder Bard von Alphabet’s Google sollten laut Technologie- und Rechtsexperten vor rechtlichen Ansprüchen wie Verleumdung oder Datenschutzverletzungen geschützt werden. Das liegt daran, dass Algorithmen, die generative KI-Tools wie ChatGPT und seinen Nachfolger GPT-4 antreiben, ähnlich funktionieren wie diejenigen, die YouTube-Nutzern Videos vorschlagen, fügten die Experten hinzu. „In der Debatte geht es wirklich darum, ob die Organisation von Informationen, die online über Empfehlungsmaschinen verfügbar sind, so wichtig für die Gestaltung des Inhalts ist, dass sie haftbar gemacht wird“, sagte Cameron Kerry, Visiting Fellow am Think Tank Brookings Institution in Washington und Experte für KI. „Sie haben die gleichen Probleme in Bezug auf einen Chatbot.“ Vertreter von OpenAI und Google antworteten nicht auf Anfragen nach Kommentaren. Bei Streitigkeiten im Februar Höchstgericht Die Richter äußerten ihre Unsicherheit darüber, ob die im Gesetz verankerten Schutzmaßnahmen, bekannt als Section 230 des Communications Decency Act von 1996, geschwächt werden sollten. Obwohl sich der Fall nicht direkt auf die generative KI bezieht, Justice Neil Gorsuch stellte fest, dass KI-Tools, die „Poesie“ und „Polemik“ erzeugen, wahrscheinlich keinen solchen rechtlichen Schutz genießen würden. Der Fall ist nur eine Facette einer aufkommenden Diskussion darüber, ob die Immunität nach Abschnitt 230 für KI-Modelle gelten sollte, die auf Fundgruben bestehender Online-Daten trainiert wurden, aber in der Lage sind, Originalwerke zu produzieren. Der Schutz gemäß Abschnitt 230 gilt im Allgemeinen für Inhalte Dritter von Benutzern einer Technologieplattform und nicht für Informationen, an deren Entwicklung ein Unternehmen mitgewirkt hat. Gerichte haben noch nicht abgewogen, ob eine Antwort eines KI-Chatbots abgedeckt wäre. „FOLGEN EIGENEN HANDELNS“ Demokratischer Senator Ron Wydender während seiner Zeit im Repräsentantenhaus an der Ausarbeitung dieses Gesetzes mitgewirkt hat, sagte, der Haftungsschutz sollte nicht für generative KI-Tools gelten, da solche Tools „Inhalte erstellen“. „Bei Abschnitt 230 geht es um den Schutz von Benutzern und Websites für das Hosten und Organisieren von Benutzeräußerungen. Er sollte Unternehmen nicht vor den Folgen ihrer eigenen Handlungen und Produkte schützen.“ Wyden sagte in einer Erklärung gegenüber Reuters. Die Technologiebranche hat darauf gedrängt, Abschnitt 230 trotz parteiübergreifender Opposition gegen die Immunität beizubehalten. Sie sagten, dass Tools wie ChatGPT wie Suchmaschinen funktionieren und Benutzer als Antwort auf eine Anfrage zu bestehenden Inhalten leiten. „KI erschafft nicht wirklich etwas. Es nimmt vorhandene Inhalte und bringt sie in eine andere Art und Weise oder in ein anderes Format“, sagte Carl Szabo, Vizepräsident und General Counsel von NetChoice, einer Handelsgruppe der Technologiebranche. Szabo sagte, eine geschwächte Section 230 würde eine unmögliche Aufgabe für KI-Entwickler darstellen und drohte, sie einer Flut von Rechtsstreitigkeiten auszusetzen, die Innovationen ersticken könnten. Einige Experten prognostizieren, dass Gerichte einen Mittelweg einschlagen und den Kontext untersuchen könnten, in dem das KI-Modell eine potenziell schädliche Reaktion hervorrief. In Fällen, in denen das KI-Modell bestehende Quellen zu paraphrasieren scheint, kann der Schild dennoch gelten. Aber Chatbots wie ChatGPT sind dafür bekannt, fiktive Antworten zu erstellen, die scheinbar keine Verbindung zu Informationen haben, die anderswo online gefunden werden, eine Situation, die laut Experten wahrscheinlich nicht geschützt wäre. Hany Farid, ein Technologe und Professor an der University of California, Berkeley, sagte, es sprenge die Vorstellungskraft zu argumentieren, dass KI-Entwickler vor Klagen über Modelle geschützt sein sollten, die sie „programmiert, trainiert und eingesetzt“ haben. „Wenn Unternehmen in Zivilprozessen für Schäden durch die von ihnen hergestellten Produkte verantwortlich gemacht werden, produzieren sie sicherere Produkte“, sagte Farid. „Und wenn sie nicht haftbar gemacht werden, stellen sie weniger sichere Produkte her.“ Der Fall, der vom Obersten Gericht entschieden wird, beinhaltet eine Berufung der Familie von Nohemi Gonzálezeine 23-jährige College-Studentin aus Kalifornien, die 2015 bei einem Amoklauf militanter Islamisten in Paris tödlich erschossen wurde, über die Abweisung der Klage ihrer Familie gegen YouTube durch ein untergeordnetes Gericht. Die Klage beschuldigte Google der „materiellen Unterstützung“ des Terrorismus und behauptete, dass YouTube über die Algorithmen der Videoplattform bestimmten Nutzern rechtswidrig Videos der militanten Gruppe Islamischer Staat empfohlen habe, die sich zu den Anschlägen von Paris bekannt habe.


gn-tech