Der YouTube-Fall vor dem Obersten US-Gericht könnte den Schutz von ChatGPT und KI beeinflussen

Die EU schlaegt einen 12 Milliarden Dollar Plan vor um den wachsenden Cybersicherheitsbedrohungen

Wenn die Funktion für das Konto des Benutzers aktiviert ist, wird beim Zugriff auf das Überlaufmenü auf YouTube Music die Option „Song-Credits anzeigen“ angezeigt

Wenn das Oberster US-Gerichtshof in den kommenden Monaten entscheiden wird, ob ein mächtiger Schild zum Schutz von Internetunternehmen geschwächt werden soll, könnte das Urteil auch Auswirkungen auf sich schnell entwickelnde Technologien wie z künstliche Intelligenz Chatbot ChatGPT. Die Richter sollen bis Ende Juni entscheiden, ob Alphabet Inc‚S Youtube kann wegen seiner Videoempfehlungen an Nutzer verklagt werden. Dieser Fall testet, ob ein US-Gesetz, das Technologieplattformen vor der rechtlichen Verantwortung für von ihren Nutzern online gestellte Inhalte schützt, auch dann gilt, wenn Unternehmen Algorithmen verwenden, um Nutzer mit Empfehlungen anzusprechen.

Was das Gericht zu diesen Fragen entscheidet, ist über Social-Media-Plattformen hinaus relevant. Sein Urteil könnte die aufkommende Debatte darüber beeinflussen, ob sich Unternehmen generativ entwickeln KI Chatbots wie ChatGPT von OpenAIein Unternehmen, in dem Microsoft Corp ein wichtiger Investor ist, oder Bard von Alphabets Google sollten laut Technologie- und Rechtsexperten vor rechtlichen Ansprüchen wie Verleumdung oder Datenschutzverletzungen geschützt werden. Das liegt daran, dass Algorithmen, die generative KI-Tools wie ChatGPT und seinen Nachfolger GPT-4 antreiben, ähnlich funktionieren wie diejenigen, die YouTube-Nutzern Videos vorschlagen, fügten die Experten hinzu. „In der Debatte geht es wirklich darum, ob die Organisation von Informationen, die online über Empfehlungsmaschinen verfügbar sind, so wichtig für die Gestaltung des Inhalts ist, dass sie haftbar gemacht wird“, sagte Cameron Kerry, Visiting Fellow am Think Tank Brookings Institution in Washington und Experte für KI. „Sie haben die gleichen Probleme in Bezug auf einen Chatbot.“ Vertreter von OpenAI und Google antworteten nicht auf Anfragen nach Kommentaren. Während der Argumente im Februar äußerten die Richter des Obersten Gerichtshofs ihre Unsicherheit darüber, ob der im Gesetz verankerte Schutz, bekannt als Section 230 des Communications Decency Act von 1996, geschwächt werden sollte. Obwohl sich der Fall nicht direkt auf generative KI bezieht, stellte Richter Neil Gorsuch fest, dass KI Werkzeuge, die „Poesie“ und „Polemik“ erzeugen, würden wahrscheinlich keinen solchen rechtlichen Schutz genießen. Der Fall ist nur eine Facette einer aufkommenden Diskussion darüber, ob die Immunität nach Abschnitt 230 für KI-Modelle gelten sollte, die auf Fundgruben bestehender Online-Daten trainiert wurden, aber in der Lage sind, Originalwerke zu produzieren. Der Schutz gemäß Abschnitt 230 gilt im Allgemeinen für Inhalte Dritter von Benutzern einer Technologieplattform und nicht für Informationen, an deren Entwicklung ein Unternehmen mitgewirkt hat. Gerichte haben noch nicht abgewogen, ob eine Antwort eines KI-Chatbots abgedeckt wäre.„Folgen des eigenen Handelns“
Der demokratische Senator Ron Wyden, der während seiner Zeit im Repräsentantenhaus an der Ausarbeitung dieses Gesetzes mitgewirkt hat, sagte, der Haftungsschutz sollte nicht für generative KI-Tools gelten, da solche Tools „Inhalte erstellen“. „Bei Abschnitt 230 geht es um den Schutz von Benutzern und Websites für das Hosten und Organisieren von Benutzerreden. Er sollte Unternehmen nicht vor den Folgen ihrer eigenen Handlungen und Produkte schützen“, sagte Wyden in einer Erklärung gegenüber Reuters. Die Technologiebranche hat darauf gedrängt, Abschnitt 230 trotz parteiübergreifender Opposition gegen die Immunität beizubehalten. Sie sagten, dass Tools wie ChatGPT wie Suchmaschinen funktionieren und Benutzer als Antwort auf eine Anfrage zu bestehenden Inhalten leiten. „KI erschafft nicht wirklich etwas. Es nimmt vorhandene Inhalte und bringt sie in eine andere Art und Weise oder in ein anderes Format“, sagte Carl Szabo, Vizepräsident und General Counsel von NetChoice, einer Handelsgruppe der Technologiebranche. Szabo sagte, eine geschwächte Section 230 würde eine unmögliche Aufgabe für KI-Entwickler darstellen und drohte, sie einer Flut von Rechtsstreitigkeiten auszusetzen, die Innovationen ersticken könnten. Einige Experten prognostizieren, dass Gerichte einen Mittelweg einschlagen und den Kontext untersuchen könnten, in dem das KI-Modell eine potenziell schädliche Reaktion hervorrief. In Fällen, in denen das KI-Modell bestehende Quellen zu paraphrasieren scheint, kann der Schild dennoch gelten. Aber Chatbots wie ChatGPT sind dafür bekannt, fiktive Antworten zu erstellen, die scheinbar keine Verbindung zu Informationen haben, die anderswo online gefunden werden, eine Situation, die laut Experten wahrscheinlich nicht geschützt wäre. Hany Farid, ein Technologe und Professor an der University of California, Berkeley, sagte, es sprenge die Vorstellungskraft zu argumentieren, dass KI-Entwickler vor Klagen über Modelle geschützt sein sollten, die sie „programmiert, trainiert und eingesetzt“ haben. „Wenn Unternehmen in Zivilprozessen für Schäden durch die von ihnen hergestellten Produkte verantwortlich gemacht werden, produzieren sie sicherere Produkte“, sagte Farid. „Und wenn sie nicht haftbar gemacht werden, stellen sie weniger sichere Produkte her.“ Der Fall, der vom Obersten Gericht entschieden wird, betrifft die Berufung der Familie von Nohemi Gonzalez, einer 23-jährigen College-Studentin aus Kalifornien, die 2015 bei einem Amoklauf militanter Islamisten in Paris tödlich erschossen wurde, gegen die Entlassung ihrer Familie durch ein untergeordnetes Gericht Klage gegen YouTube. Die Klage beschuldigte Google der „materiellen Unterstützung“ des Terrorismus und behauptete, dass YouTube über die Algorithmen der Videoplattform bestimmten Nutzern rechtswidrig Videos der militanten Gruppe Islamischer Staat empfohlen habe, die sich zu den Anschlägen von Paris bekannt habe.


gn-tech