Hallo Leute und willkommen beim regelmäßigen KI-Newsletter von Tech.
Diese Woche im KI-Bereich beschuldigten Musiklabels zwei Startups, die KI-gestützte Songgeneratoren entwickeln, Udio und Suno, der Urheberrechtsverletzung.
Die RIAA, der Branchenverband der Musikindustrie in den USA, kündigte am Montag Klagen gegen die Unternehmen an, die von Sony Music Entertainment, Universal Music Group, Warner Records und anderen eingereicht wurden. In den Klagen wird behauptet, Udio und Suno hätten die generativen KI-Modelle, die ihren Plattformen zugrunde liegen, mit der Musik von Labels trainiert, ohne diese dafür zu entschädigen – und fordern 150.000 Dollar Entschädigung pro angeblich verletztem Werk.
„Synthetische Musikausgaben könnten den Markt mit maschinengenerierten Inhalten übersättigen, die in direkte Konkurrenz zu den echten Tonaufnahmen treten, auf denen der Dienst basiert, diese entwerten und letztlich übertönen“, heißt es in der Klage der Labels.
Die Klagen reihen sich in die wachsende Zahl von Gerichtsverfahren gegen Anbieter generativer KI ein, darunter auch gegen große Namen wie OpenAI, die im Wesentlichen dasselbe argumentieren: Unternehmen, die an urheberrechtlich geschützten Werken trainieren, müssen die Rechteinhaber bezahlen oder zumindest als Quelle nennen – und ihnen die Möglichkeit geben, auf Wunsch vom Training abzuweichen. Anbieter berufen sich schon lange auf den Fair-Use-Schutz und behaupten, dass die urheberrechtlich geschützten Daten, an denen sie trainieren, öffentlich sind und dass ihre Modelle transformative, keine plagiierten Werke schaffen.
Wie werden die Gerichte also entscheiden? Das, lieber Leser, ist die Milliardenfrage – und eine, deren Klärung ewig dauern wird.
Man könnte meinen, es wäre ein Selbstläufer für die Urheberrechtsinhaber, angesichts der Montage Beweis dass generative KI-Modelle fast alles wiedergeben können (Schwerpunkt fast) wörtlich die urheberrechtlich geschützte Kunst, Bücher, Lieder usw. wiedergeben, mit denen sie trainiert werden. Aber es gibt ein Ergebnis, bei dem die Anbieter generativer KI ungeschoren davonkommen – und Google das Glück verdanken, den folgenschweren Präzedenzfall geschaffen zu haben.
Vor über einem Jahrzehnt begann Google damit, Millionen von Büchern zu scannen, um ein Archiv für Google Books aufzubauen, eine Art Suchmaschine für literarische Inhalte. Autoren und Verleger verklagten Google wegen dieser Praxis und behaupteten, die Online-Reproduktion ihres geistigen Eigentums käme einer Urheberrechtsverletzung gleich. Doch sie verloren. In der Berufung entschied ein Gericht, dass die Kopien von Google Books einen „höchst überzeugenden transformativen Zweck“ verfolgten.
Die Gerichte könnten auch entscheiden, dass generative KI einen „überzeugenden transformativen Zweck“ hat, wenn die Kläger nicht nachweisen können, dass die Modelle der Anbieter tatsächlich in großem Umfang plagiieren. Oder, wie Alex Reisner von The Atlantic sagt: schlägt vorwird es möglicherweise kein einheitliches Urteil darüber geben, ob generative KI-Technologie als Ganzes gegen das Urheberrecht verstößt. Richter könnten durchaus Modell für Modell und Fall für Fall den Gewinner bestimmen – und dabei jedes generierte Ergebnis berücksichtigen.
Mein Kollege Devin Coldewey brachte es diese Woche in einem Artikel auf den Punkt: „Nicht jedes KI-Unternehmen hinterlässt seine Fingerabdrücke am Tatort so großzügig.“ Während der Rechtsstreit weitergeht, können wir davon ausgehen, dass KI-Anbieter, deren Geschäftsmodelle von den Ergebnissen abhängen, detaillierte Notizen machen.
Nachricht
Erweiterter Sprachmodus verzögert: OpenAI hat den erweiterten Sprachmodus verschoben, das unheimlich realistische, nahezu Echtzeit-Gesprächserlebnis für seine KI-gestützte Chatbot-Plattform ChatGPT. Aber es gibt keine untätigen Hände bei OpenAI, das diese Woche auch das Remote-Collaboration-Startup Multi übernommen und einen macOS-Client für alle ChatGPT-Benutzer veröffentlicht hat.
Stabilität ist ein Rettungsanker: Stability AI, der Entwickler des offenen Bilderzeugungsmodells Stable Diffusion, stand am finanziellen Abgrund und wurde von einer Investorengruppe gerettet, zu der auch Napster-Gründer Sean Parker und der ehemalige Google-CEO Eric Schmidt gehörten. Die Schulden wurden erlassen und das Unternehmen ernannte zudem einen neuen CEO, den ehemaligen Weta-Digital-Chef Prem Akkaraju, als Teil einer umfassenden Anstrengung, um in der extrem wettbewerbsintensiven KI-Landschaft wieder Fuß zu fassen.
Gemini kommt zu Gmail: Google führt in Gmail eine neue, auf Gemini basierende KI-Seitenleiste ein, die Ihnen beim Schreiben von E-Mails und Zusammenfassen von Threads helfen kann. Dieselbe Seitenleiste wird auch in der restlichen Suite der Produktivitäts-Apps des Suchgiganten zu finden sein: Docs, Sheets, Slides und Drive.
Superguter Kurator: Goodreads-Mitbegründer Otis Chandler hat Smashing auf den Markt gebracht, eine KI- und Community-gestützte App zur Inhaltsempfehlung mit dem Ziel, Benutzer mit ihren Interessen zu verbinden, indem sie die verborgenen Schätze des Internets ans Licht bringen. Smashing bietet Zusammenfassungen von Nachrichten, wichtige Auszüge und interessante Zitate, identifiziert automatisch Themen und Threads, die für einzelne Benutzer von Interesse sind, und ermutigt Benutzer, Artikel zu liken, zu speichern und zu kommentieren.
Apple sagt Nein zur KI von Meta: Tage später Das Wall Street Journal berichtete, dass Apple und Meta in Gesprächen seien, um die KI-Modelle des letzteren zu integrieren, Mark Gurman von Bloomberg sagte, dass der iPhone-Hersteller keinen derartigen Schritt plane. Apple habe die Idee, Metas KI auf iPhones zu bringen, aus Datenschutzgründen auf Eis gelegt, sagte Bloomberg – und wegen der Optik einer Partnerschaft mit einem sozialen Netzwerk, dessen Datenschutzrichtlinien oft kritisiert werden.
Forschungspapier der Woche
Hüten Sie sich vor Chatbots mit russischem Einfluss. Sie könnten direkt vor Ihrer Nase sein.
Anfang des Monats hob Axios eine Studie von NewsGuard, der Organisation zur Bekämpfung von Desinformation, die herausfand, dass die führenden KI-Chatbots Ausschnitte aus russischen Propagandakampagnen wiederkäuen.
NewsGuard hat in zehn der führenden Chatbots – darunter ChatGPT von OpenAI, Claude von Anthropic und Gemini von Google – mehrere Dutzend Eingabeaufforderungen eingegeben, die nach Narrativen fragen, von denen bekannt ist, dass sie von russischen Propagandisten, insbesondere dem amerikanischen Flüchtling John Mark Dougan, erfunden wurden. Laut dem Unternehmen reagierten die Chatbots in 32 % der Fälle mit Desinformationen und stellten falsche, in Russland verfasste Berichte als Tatsachen dar.
Die Studie veranschaulicht die zunehmende Aufmerksamkeit, die KI-Anbieter angesichts der bevorstehenden US-Wahlen erfahren. Microsoft, OpenAI, Google und eine Reihe anderer führender KI-Unternehmen einigten sich auf der Münchner Sicherheitskonferenz im Februar darauf, Maßnahmen zu ergreifen, um die Verbreitung von Deepfakes und wahlbezogenen Falschinformationen einzudämmen. Doch der Missbrauch der Plattformen ist nach wie vor weit verbreitet.
„Dieser Bericht zeigt im Detail, warum die Branche Nachrichten und Informationen besondere Aufmerksamkeit schenken muss“, sagte Steven Brill, Co-CEO von NewsGuard, gegenüber Axios. „Vertrauen Sie den Antworten der meisten dieser Chatbots zu Nachrichtenthemen, insbesondere zu kontroversen Themen, derzeit nicht.“
Modell der Woche
Forscher am Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT behaupten, mit DenseAV ein Modell entwickelt zu haben, das Sprache lernen kann, indem es das Gesehene anhand des Gehörten vorhersagt – und umgekehrt.
Die Forscher unter der Leitung von Mark Hamilton, einem MIT-Doktoranden in Elektrotechnik und Informatik, wurden bei der Entwicklung von DenseAV durch die nonverbalen Kommunikationswege von Tieren inspiriert. „Wir dachten, vielleicht müssen wir Audio und Video verwenden, um Sprache zu lernen“, sagte er gegenüber dem MIT CSAIL. Pressebüro„Gibt es eine Möglichkeit, einen Algorithmus den ganzen Tag fernsehen zu lassen und so herauszufinden, wovon wir sprechen?“
DenseAV verarbeitet nur zwei Arten von Daten – Audio und Video – und zwar getrennt voneinander. Es „lernt“, indem es Audio- und Videosignalpaare vergleicht, um herauszufinden, welche Signale übereinstimmen und welche nicht. DenseAV wurde anhand eines Datensatzes von 2 Millionen YouTube-Videos trainiert und kann Objekte anhand ihrer Namen und Geräusche identifizieren, indem es alle möglichen Übereinstimmungen zwischen einem Audioclip und den Pixeln eines Bilds sucht und dann aggregiert.
Wenn DenseAV beispielsweise einem Hundegebell zuhört, konzentriert sich ein Teil des Modells auf Sprache, wie das Wort „Hund“, während ein anderer Teil sich auf die Bellgeräusche konzentriert. Die Forscher sagen, dies zeige, dass DenseAV nicht nur die Bedeutung von Wörtern und die Position von Geräuschen lernen kann, sondern auch, zwischen diesen „kreuzmodalen“ Verbindungen zu unterscheiden.
Mit Blick auf die Zukunft möchte das Team Systeme schaffen, die aus riesigen Mengen reiner Video- oder Audiodaten lernen können – und ihre Arbeit mit größeren Modellen skalieren, möglicherweise integriert mit dem Wissen von Sprachverständnismodellen, um die Leistung zu verbessern.
Wundertüte
Niemand kann OpenAI CTO Mira Murati vorwerfen, nicht immer offen sein.
Im Rahmen einer Kamingesprächsrunde an der School of Engineering der Universität Dartmouth räumte Murati zwar ein, dass generative KI einige kreative Arbeitsplätze vernichten werde, meinte jedoch, dass diese Arbeitsplätze „vielleicht von vornherein gar nicht erst hätten entstehen sollen“.
„Ich gehe definitiv davon aus, dass sich viele Arbeitsplätze verändern werden, einige Arbeitsplätze werden verloren gehen, einige Arbeitsplätze werden neu entstehen“, fuhr sie fort. „Die Wahrheit ist, dass wir die Auswirkungen der KI auf die Arbeitsplätze noch nicht wirklich verstehen.“
Kreative reagierten nicht erfreut auf Muratis Bemerkungen – und das ist kein Wunder. Abgesehen von der apathischen Formulierung sieht sich OpenAI, wie die bereits erwähnten Udio und Suno, mit Klagen, Kritikern und Regulierungsbehörden konfrontiert, die behaupten, es profitiere von den Werken der Künstler, ohne sie dafür zu entschädigen.
OpenAI hat kürzlich versprochen, Tools zu veröffentlichen, die es den Entwicklern ermöglichen, mehr Kontrolle über die Verwendung ihrer Werke in seinen Produkten zu haben, und es schließt weiterhin Lizenzverträge mit Urheberrechtsinhabern und Verlegern ab. Aber das Unternehmen setzt sich nicht gerade für ein bedingungsloses Grundeinkommen ein – oder führt irgendeine sinnvolle Initiative zur Umschulung oder Weiterbildung der Arbeitskräfte an, die von seiner Technologie betroffen sind.
Ein kürzlich Stück im Wall Street Journal stellte fest, dass Vertragsjobs, die grundlegende Schreib-, Kodierungs- und Übersetzungsaufgaben erfordern, verschwinden. Und ein Studie Eine im vergangenen November veröffentlichte Studie zeigt, dass Freiberufler nach der Einführung von ChatGPT von OpenAI weniger Aufträge bekamen und deutlich weniger verdienten.
Die erklärte Mission von OpenAI, zumindest bis es ein gewinnorientiertes Unternehmenist es, „sicherzustellen, dass künstliche allgemeine Intelligenz (AGI) – KI-Systeme, die im Allgemeinen intelligenter sind als Menschen – der gesamten Menschheit zugutekommt.“ AGI ist noch nicht erreicht. Aber wäre es nicht lobenswert, wenn OpenAI, getreu dem Teil „der gesamten Menschheit zugutekommt“, zumindest einen kleinen Teil seiner Einnahmen beiseite legen würde (Über 3,4 Milliarden US-Dollar) für Zahlungen an Entwickler, damit diese nicht in die Flut der generativen KI hineingezogen werden?
Ich darf doch träumen, oder?