Die Klage der RIAA gegen generative Musik-Startups wird das Blutbad sein, das die KI braucht

Wie viele KI-Unternehmen haben sich Udio und Suno bei der Entwicklung ihrer generativen KI-Modelle auf Diebstahl im großen Stil verlassen. Das haben sie so gut wie zugegeben, noch bevor die neuen Klagen der Musikindustrie gegen sie vor Gericht verhandelt wurden. Wenn der Prozess vor einer Jury verhandelt wird, könnte er sowohl eine belastende Enthüllung als auch ein äußerst nützlicher Präzedenzfall für ähnlich unethische KI-Unternehmen sein, die sich einer gewissen rechtlichen Gefahr gegenübersehen.

Die Klagen waren am Montag mit großem Tamtam eingereicht von der Recording Industry Association of America, was uns alle in die unangenehme Lage versetzt, die RIAA anzufeuern, die seit Jahrzehnten der Buhmann der digitalen Medien ist. Ich selbst habe böse Briefe von ihnen erhalten! Der Fall ist einfach so klar.

Der Kern der beiden Klagen, die inhaltlich sehr ähnlich sind, besteht darin, dass Suno und Udio (genau genommen Uncharted Labs, das unter dem Namen Udio firmiert) wahllos mehr oder weniger die gesamte Geschichte der aufgezeichneten Musik plünderten, um Datensätze zu erstellen, die sie dann zum Trainieren einer musikgenerierenden KI verwendeten.

Und hier sei kurz angemerkt, dass diese KIs nicht so sehr „generieren“, sondern vielmehr die Eingabeaufforderung des Benutzers mit Mustern aus ihren Trainingsdaten abgleichen und dann versuchen, dieses Muster zu vervollständigen. In gewisser Weise führen diese Modelle lediglich Cover oder Mashups der aufgenommenen Songs auf.

Dass Suno und Udio diese Daten tatsächlich aufgenommen haben, steht in jeder Hinsicht (auch rechtlich) außer Frage. Die Unternehmensführung und die Investoren haben sich unklugerweise zu den urheberrechtlichen Herausforderungen in diesem Bereich bedeckt gehalten.

Sie haben zugegeben, dass die einzige Möglichkeit, ein gutes Musikgenerierungsmodell zu erstellen, darin besteht, eine große Menge hochwertiger Musik aufzunehmen, von der ein Großteil urheberrechtlich geschützt ist. Dies ist ganz einfach ein notwendiger Schritt zur Erstellung maschineller Lernmodelle dieser Art.

Dann gaben sie zu, dass sie dies ohne die Erlaubnis der Urheberrechtsinhaber getan hatten. Investor Brian Hiatt sagte gegenüber Rolling Stone vor ein paar Monaten:

Ehrlich gesagt, wenn wir bei der Gründung dieses Unternehmens Verträge mit Labels gehabt hätten, hätte ich wahrscheinlich nicht darin investiert. Ich denke, sie hätten dieses Produkt ohne Einschränkungen herstellen müssen.

Sagen Sie mir, Sie hätten ein Jahrhundert Musik gestohlen, ohne mir zu sagen, dass Sie ein Jahrhundert Musik gestohlen haben, verstanden. Um es klarzustellen: Mit „Einschränkungen“ meint er das Urheberrecht.

Zuletzt teilten die Unternehmen den Anwälten der RIAA mit, dass sie der Ansicht seien, dass das Mitnehmen all dieser Medien unter die Fair-Use-Doktrin falle – die grundsätzlich nur bei der unbefugten Verwendung eines Werks zum Tragen kommt. Nun ist Fair Use zugegebenermaßen ein komplexes und vage Konzept in Bezug auf Idee und Umsetzung. Aber ein Unternehmen mit 100 Millionen Dollar in der Tasche, das jedes jemals produzierte Lied stiehlt, um es in großen Mengen zu kopieren und die Ergebnisse zu verkaufen: Ich bin kein Anwalt, aber das scheint etwas außerhalb des beabsichtigten sicheren Hafens zu liegen, beispielsweise eines Siebtklässlers, der ein Lied von Pearl Jam im Hintergrund seines Videos zur globalen Erwärmung verwendet.

Offen gesagt sieht es so aus, als wäre für diese Unternehmen die Sache erledigt. Sie hofften offensichtlich, dass sie sich ein Beispiel an OpenAI nehmen könnten, indem sie heimlich urheberrechtlich geschützte Werke verwenden und dann ihre weniger finanzkräftigen Kritiker wie Autoren und Journalisten mit ausweichender Sprache und Irreführung abschrecken. Wenn die Betrügereien der KI-Unternehmen zu dem Zeitpunkt aufgedeckt werden, wenn sie die einzige Möglichkeit zur Verbreitung sind, spielt das keine Rolle mehr.

Mit anderen Worten: Leugnen, ablenken, verzögern. Im Idealfall kann man die Sache so lange hinauszögern, bis sich das Blatt wendet und man mit seinen Kritikern Absprachen trifft – bei LLMs sind das Nachrichtenagenturen und dergleichen, und in diesem Fall wären es Plattenlabels, an die die Musikproduzenten offensichtlich irgendwann aus einer Machtposition heraus zu kommen hofften. „Klar, wir haben eure Sachen geklaut, aber jetzt ist es ein großes Geschäft; würdet ihr nicht lieber mit uns spielen als gegen uns?“ Das ist eine gängige Strategie im Silicon Valley und eine erfolgreiche, da sie hauptsächlich nur Geld kostet.

Aber es ist schwieriger, wenn man eine rauchende Waffe in der Hand hat. Und leider für Udio und Suno hat die RIAA der Klage ein paar tausend rauchende Waffen beigefügt: Songs, die ihr gehören und die offensichtlich von den Musikmodellen wiedergekäut werden. Jackson 5 oder Maroon 5, die „generierten“ Songs sind nur leicht entstellte Versionen der Originale – etwas, das unmöglich wäre, wenn das Original nicht in den Trainingsdaten enthalten wäre.

Die Natur von LLMs – insbesondere ihre Tendenz zu halluzinieren und den Faden zu verlieren, je mehr sie schreiben – schließt das Wiederkäuen von beispielsweise ganzen Büchern aus. Dies hat wahrscheinlich eine Klage von Autoren gegen OpenAI ausgelöst, da letzteres plausibel behaupten kann, dass die von seinem Modell zitierten Ausschnitte aus Rezensionen, online verfügbaren ersten Seiten usw. stammen. (Der neueste Schachzug ist, dass sie tat habe anfangs urheberrechtlich geschützte Werke verwendet, aber inzwischen damit aufgehört, was lustig ist, denn es ist so, als würde man sagen, man habe die Orange nur einmal entsaftet, aber inzwischen damit aufgehört.)

Was du kippen Sie können nur plausibel behaupten, dass Ihr Musikgenerator nur ein paar Takte von „Great Balls of Fire“ gehört hat und es irgendwie geschafft hat, den Rest Wort für Wort und Akkord für Akkord auszuspucken. Jeder Richter oder jede Jury würde Ihnen ins Gesicht lachen, und mit etwas Glück bekommt ein Gerichtskünstler die Chance, dies zu veranschaulichen.

Dies ist nicht nur intuitiv offensichtlich, sondern hat auch rechtliche Konsequenzen, da klar ist, dass die Modelle ganze Werke nachbilden – manchmal sicherlich schlecht, aber ganze Songs. Dies erlaubt der RIAA zu behaupten, dass Udio und Suno dem Geschäft der Urheberrechtsinhaber und der wiedergekäuten Künstler echten und großen Schaden zufügen – was sie dazu veranlasst, den Richter zu bitten, den gesamten Betrieb der KI-Unternehmen zu Beginn des Prozesses mit einer einstweiligen Verfügung stillzulegen.

Die ersten Absätze Ihres Buches, das Sie nach einem LLM-Studium schreiben? Das ist ein intellektuelles Thema, das ausführlich diskutiert werden muss. Ein auf Abruf erstelltes „Call Me Maybe“ aus dem Dollar-Store? Schließen Sie es. Ich sage nicht, dass es richtig ist, aber es ist wahrscheinlich.

Die vorhersehbare Antwort der Unternehmen war, dass das System nicht beabsichtigt urheberrechtlich geschützte Werke zu replizieren: ein verzweifelter, unverhohlener Versuch, die Haftung gemäß Paragraph 230 Safe Harbor auf die Nutzer abzuwälzen. Das ist genauso, wie Instagram nicht haftbar ist, wenn Sie ein urheberrechtlich geschütztes Lied als Hintergrund für Ihr Reel verwenden. Hier scheint das Argument nicht stichhaltig zu sein, teilweise aufgrund der bereits erwähnten Eingeständnisse, dass das Unternehmen selbst das Urheberrecht von Anfang an ignoriert hat.

Welche Folgen werden diese Klagen haben? Wie bei allem, was mit künstlicher Intelligenz zu tun hat, ist es unmöglich, das im Voraus zu sagen, da es kaum Präzedenzfälle oder anwendbare, festgelegte Doktrinen gibt.

Meine Vorhersage, auch hier mangelt es mir an wirklicher Sachkenntnis, ist, dass die Unternehmen gezwungen sein werden, ihre Trainingsdaten und -methoden offenzulegen, da diese Dinge eindeutig von beweistechnischem Interesse sind. Diese und ihren offensichtlichen Missbrauch von urheberrechtlich geschütztem Material sowie (wahrscheinlich) Mitteilungen, die darauf schließen lassen, dass sie das Gesetz gebrochen haben, zu sehen, wird wahrscheinlich einen Vergleichsversuch oder eine Prozessvermeidung und/oder ein schnelles Urteil gegen Udio und Suno auslösen. Sie werden auch gezwungen sein, alle Aktivitäten einzustellen, die auf den diebstahlbasierten Modellen basieren. Mindestens einer der beiden wird versuchen, sein Geschäft mit legalen (oder zumindest rechtlich ähnlichen) Musikquellen fortzusetzen, aber das resultierende Modell wird einen enormen Qualitätsverlust aufweisen und die Benutzer werden abwandern.

Investoren? Im Idealfall verlieren sie ihr letztes Hemd, weil sie auf etwas gesetzt haben, das offensichtlich und nachweislich illegal und unethisch war, und zwar nicht nur in den Augen schwächlicher Autorenverbände, sondern auch nach Ansicht der Rechtsexperten der berüchtigt und rücksichtslos prozessfreudigen RIAA. Ob der Schaden sich auf das vorhandene Bargeld oder die versprochene Finanzierung beläuft, ist reine Spekulation.

Die Konsequenzen können weitreichend sein: Wenn Investoren eines angesagten neuen generativen Medien-Startups plötzlich sehen, wie hundert Millionen Dollar aufgrund der grundlegenden Natur generativer Medien verpuffen, scheint plötzlich ein anderes Maß an Sorgfalt angebracht. Die Unternehmen werden aus dem Prozess (falls es einen gibt) oder den Vergleichsunterlagen usw. erfahren, was sie hätten sagen können oder, was vielleicht noch wichtiger ist, was sie nicht hätten sagen sollen, um Haftung zu vermeiden und die Urheberrechtsinhaber im Unklaren zu lassen.

Obwohl diese Klage fast schon eine ausgemachte Sache zu sein scheint, hinterlässt nicht jedes KI-Unternehmen seine Fingerabdrücke am Tatort so großzügig. Es wird kein Leitfaden für die Strafverfolgung oder das Erzwingen von Vergleichen mit anderen generativen KI-Unternehmen sein, sondern ein anschauliches Beispiel für Hybris. Es ist gut, ab und zu mal so etwas zu haben, auch wenn der Lehrer zufällig die RIAA ist.

tch-1-tech