Meta trainierte ein KI-Modell für Raubkopien von Büchern, obwohl es rechtliche Probleme gab

Das Meta AI-Logo ist in dieser Abbildung vom 28. September 2023 zu sehen. REUTERS/Dado Ruvic/Illustration/Archivfoto

KI-Modelle werden aufgrund der Qualität und des Caches der Daten, auf denen sie trainiert werden, immer ausgefeilter. Das Trainieren von Modellen auf Daten, insbesondere auf geschützten Daten, kann jedoch Konsequenzen haben. Google, das von Microsoft unterstützte OpenAI und das Facebook-Mutterunternehmen Meta wurden irgendwann im letzten Jahr für den „Diebstahl“ von Daten kritisiert. Meta scheint auf viele rechtliche Probleme gestoßen zu sein, weil es urheberrechtlich geschützte Daten zum Lama-Training verwendet hat. In einem Bericht der Nachrichtenagentur Reuters heißt es unter Berufung auf einen neuen Antrag in einem Fall im Zusammenhang mit Urheberrechtsverletzungen, der Anfang dieses Jahres eingereicht wurde, dass die Anwälte des Unternehmens das Unternehmen vor den rechtlichen Gefahren gewarnt hätten, die mit der Verwendung Tausender Raubkopien von Büchern zum Trainieren seiner KI-Modelle einhergingen, doch Meta habe es getan Trotzdem.

Die neue Einreichung bündelt auch zwei Klagen, die von der Komikerin Sarah Silverman, dem Pulitzer-Preisträger Michael Chabon und anderen prominenten Autoren gegen den Facebook- und Instagram-Besitzer eingereicht wurden. Sie behaupten, dass Meta ihre Werke ohne Erlaubnis verwendet habe, um sein KI-Sprachmodell Llama zu trainieren.Berichten zufolge enthält die Beschwerde Chatprotokolle eines mit Meta verbundenen Forschers, der über die Beschaffung des Datensatzes auf einem Discord-Server diskutiert, was darauf hindeutet, dass Meta sich der Rechtmäßigkeit der Verwendung der Bücher bewusst war.„Bei Facebook gibt es viele Leute, die daran interessiert sind, mit (T)he (P)ile zu arbeiten, darunter auch ich, aber in der aktuellen Form können wir es aus rechtlichen Gründen nicht nutzen“, sagte Forscher Tim Dettmers in einem von die Chats.Was das für Technologieunternehmen bedeutet
Da Technologieunternehmen mit zahlreichen Klagen von Content-Erstellern konfrontiert werden, die ihnen vorwerfen, urheberrechtlich geschützte Werke zu fälschen, um generative KI-Modelle zu erstellen, könnten sie gezwungen sein, Künstler, Autoren und andere Urheber dafür zu entschädigen.Darüber hinaus könnten die vorläufigen Regeln zu KI in Europa Unternehmen dazu zwingen, die Daten offenzulegen, die sie zum Trainieren ihrer Modelle verwenden, was sie möglicherweise einem höheren rechtlichen Risiko aussetzt.
FacebookTwitterLinkedin



Ende des Artikels

gn-tech