OpenAI konnte das versprochene Opt-out-Tool bis 2025 nicht bereitstellen

Bereits im Mai gab OpenAI bekannt, dass es ein Tool entwickelt, mit dem Urheber festlegen können, wie ihre Werke in die KI-Trainingsdaten aufgenommen bzw. daraus ausgeschlossen werden sollen. Aber sieben Monate später hat diese Funktion immer noch nicht das Licht der Welt erblickt.

Das als Media Manager bezeichnete Tool würde „urheberrechtlich geschützte Texte, Bilder, Audio- und Videodateien identifizieren“, sagte OpenAI damals, um die Präferenzen der Ersteller „über mehrere Quellen hinweg“ widerzuspiegeln. Es sollte einige der schärfsten Kritiker des Unternehmens abwehren und OpenAI möglicherweise vor rechtlichen Herausforderungen im Zusammenhang mit geistigem Eigentum schützen.

Aber vertraute Personen sagen Tech, dass das Tool intern selten als wichtige Einführung angesehen wurde. „Ich glaube nicht, dass es Priorität hatte“, sagte ein ehemaliger OpenAI-Mitarbeiter. „Um ehrlich zu sein, kann ich mich nicht erinnern, dass jemand daran gearbeitet hat.“

Ein Nicht-Mitarbeiter, der die Arbeit mit dem Unternehmen koordiniert, teilte Tech im Dezember mit, dass man das Tool in der Vergangenheit bereits mit OpenAI besprochen habe, es aber keine aktuellen Updates gegeben habe. (Diese Personen lehnten es ab, öffentlich genannt zu werden, wenn sie vertrauliche Geschäftsangelegenheiten besprachen.)

Und ein Mitglied des Rechtsteams von OpenAI, das am Medienmanager arbeitete, Fred von Lohmann, wechselte im Oktober zu einer Teilzeitberaterrolle. OpenAI PR bestätigte Von Lohmanns Wechsel zu Tech per E-Mail.

OpenAI hat noch kein Update zum Fortschritt von Media Manager veröffentlicht und das Unternehmen hat die selbst gesetzte Frist für die Einführung des Tools bis 2025 verpasst.

IP-Probleme

KI-Modelle wie OpenAI lernen Muster in Datensätzen, um Vorhersagen zu treffen – zum Beispiel das Wer in einen Burger beißt, hinterlässt eine Bissspur. Dadurch können Modelle bis zu einem gewissen Grad durch Beobachtung lernen, wie die Welt funktioniert. ChatGPT kann überzeugende E-Mails und Aufsätze schreiben, während Sora, der Videogenerator von OpenAI, relativ realistisches Filmmaterial erstellen kann.

Die Fähigkeit, auf Beispiele aus Texten, Filmen und mehr zurückzugreifen, um neue Werke zu generieren, macht KI unglaublich leistungsfähig. Aber es ist auch aufstoßend. Wenn sie auf eine bestimmte Art und Weise dazu aufgefordert werden, erstellen Modelle – von denen die meisten auf unzähligen Webseiten, Videos und Bildern trainiert werden – nahezu Kopien dieser Daten, die zwar „öffentlich verfügbar“ sind, aber nicht für eine solche Verwendung gedacht sind.

Sora kann es zum Beispiel Generieren Sie Clips mit dem Logo von TikTok und beliebte Videospielcharaktere. Die New York Times hat ChatGPT dazu gebracht, ihre Artikel wörtlich zu zitieren (OpenAI machte „hacken“).

Dies hat verständlicherweise Urheber verärgert, deren Werke ohne ihre Erlaubnis in die KI-Schulung geraten sind. Viele haben sich an den Anwalt gewandt.

OpenAI kämpft gegen Sammelklagen von Künstlern, Schriftstellern, YouTubern, Informatikern und Nachrichtenorganisationen, die allesamt behaupten, das Startup habe illegal an ihren Werken gearbeitet. Zu den Klägern zählen unter anderem die Autoren Sarah Silverman und Ta Nehisi-Coates, bildende Künstler und Medienkonzerne wie The New York Times und Radio-Canada.

OpenAI hat Lizenzverträge mit ausgewählten Partnern abgeschlossen, aber nicht alle Entwickler sehen das Bedingungen ebenso attraktiv.

OpenAI bietet Entwicklern mehrere Ad-hoc-Möglichkeiten, sich von seinem KI-Training abzumelden. Im vergangenen September führte das Unternehmen ein Einreichungsformular ein, das es Künstlern ermöglicht, ihre Arbeiten für die Entfernung aus künftigen Schulungssets zu markieren. Und OpenAI erlaubt es Webmastern seit langem, seine Web-Crawling-Bots daran zu hindern, Daten über ihre Domains hinweg zu sammeln.

Doch die Entwickler haben diese Methoden als willkürlich und unzureichend kritisiert. Es gibt keine spezifischen Opt-out-Mechanismen für schriftliche Werke, Videos oder Audioaufnahmen. Und das Opt-out-Formular für Bilder erfordert die Übermittlung einer Kopie jedes zu entfernenden Bildes zusammen mit einer Beschreibung, ein mühsamer Prozess.

Media Manager wurde heute als komplette Überarbeitung – und Erweiterung – der Opt-out-Lösungen von OpenAI vorgestellt.

In der Ankündigung im Mai sagte OpenAI, dass Media Manager „modernste maschinelle Lernforschung“ nutzen werde, um Erstellern und Inhaltseigentümern das Erzählen zu ermöglichen [OpenAI] was sie besitzen.“ OpenAI, das behauptete, bei der Entwicklung des Tools mit Regulierungsbehörden zusammenzuarbeiten, sagte, es hoffe, dass Media Manager „einen Standard in der gesamten KI-Branche setzen“ werde.

OpenAI hat Media Manager seitdem nie mehr öffentlich erwähnt.

Ein Sprecher teilte Tech mit, dass sich das Tool im August „noch in der Entwicklung“ befinde, reagierte jedoch nicht auf eine Folgeanfrage nach einem Kommentar Mitte Dezember.

OpenAI hat keinen Hinweis darauf gegeben, wann Media Manager starten könnte – oder auch nur, mit welchen Features und Fähigkeiten er starten könnte.

Faire Verwendung

Unter der Annahme, dass Media Manager irgendwann auf den Markt kommt, sind Experten nicht davon überzeugt, dass es die Bedenken der Urheber zerstreuen wird – oder viel dazu beitragen wird, die rechtlichen Fragen im Zusammenhang mit der Nutzung von KI und geistigem Eigentum zu lösen.

Adrian Cyhan, IP-Anwalt bei Stubbs Alderton & Markiles, stellte fest, dass Media Manager in der beschriebenen Form ein ehrgeiziges Unterfangen sei. Sogar Plattformen so groß wie YouTube und TikTok Kampf mit Content-ID im großen Maßstab. Könnte OpenAI es wirklich besser machen?

„Die Sicherstellung der Einhaltung gesetzlich vorgeschriebener Urheberschutzmaßnahmen und potenzieller Vergütungsanforderungen, die in Betracht gezogen werden, stellt eine Herausforderung dar“, sagte Cyhan gegenüber Tech, „insbesondere angesichts der sich schnell entwickelnden und möglicherweise unterschiedlichen Rechtslandschaft in den nationalen und lokalen Gerichtsbarkeiten.“

Ed Newton-Rex, der Gründer von Fairly Trained, einer gemeinnützigen Organisation, die bescheinigt, dass KI-Unternehmen die Rechte der Urheber respektieren, glaubt, dass Media Manager die Last der Kontrolle der KI-Schulung zu Unrecht auf die Urheber abwälzen würde; Wenn sie es nicht verwenden, könnten sie möglicherweise eine stillschweigende Zustimmung zur Verwendung ihrer Werke erteilen. „Die meisten Entwickler werden nie davon hören, geschweige denn nutzen“, sagte er gegenüber Tech. „Aber es wird dennoch genutzt, um die Massenausbeutung kreativer Werke gegen den Willen der Urheber zu verteidigen.“

Mike Borella, Co-Vorsitzender der KI-Praxisgruppe des MBHB, wies darauf hin, dass Opt-out-Systeme nicht immer Transformationen berücksichtigen, die an einem Werk vorgenommen werden könnten, wie z. B. ein heruntergesampeltes Bild. Sie berücksichtigen möglicherweise auch nicht das allzu häufige Szenario, dass Drittplattformen Kopien der Inhalte der Ersteller hosten, fügte Joshua Weigensberg, ein IP- und Medienanwalt bei Pryor Cashman, hinzu.

„Urheber und Urheberrechtsinhaber haben keine Kontrolle und wissen oft nicht einmal, wo ihre Werke im Internet erscheinen“, sagte Weigensberg. „Selbst wenn ein Urheber jeder einzelnen KI-Plattform mitteilt, dass er sich von der Schulung abmeldet, kann es sein, dass diese Unternehmen dennoch weitermachen und anhand von Kopien ihrer Werke trainieren, die auf Websites und Diensten Dritter verfügbar sind.“

Zumindest aus rechtswissenschaftlicher Sicht ist Media Manager für OpenAI möglicherweise nicht einmal besonders vorteilhaft. Evan Everist, ein auf Urheberrechtsrecht spezialisierter Partner bei Dorsey & Whitney, sagte, dass OpenAI zwar das Tool verwenden könnte, um einem Richter zu zeigen, dass es seine Schulung zu IP-geschützten Inhalten abschwächt, Media Manager das Unternehmen jedoch wahrscheinlich nicht vor Schäden schützen würde, wenn dies der Fall wäre festgestellt, dass ein Verstoß vorliegt.

„Urheberrechtsinhaber sind nicht dazu verpflichtet, anderen vorsorglich zu sagen, dass sie ihre Werke nicht verletzen sollen, bevor es zu dieser Verletzung kommt“, sagte Everist. „Die Grundlagen des Urheberrechts gelten weiterhin – das heißt, man darf nicht ohne Erlaubnis fremde Inhalte übernehmen oder kopieren. Bei dieser Funktion geht es möglicherweise eher um PR und die Positionierung von OpenAI als ethischer Nutzer von Inhalten.“

Eine Abrechnung

In Ermangelung von Media Manager hat OpenAI Filter implementiert – wenn auch unvollkommene – um zu verhindern, dass seine Modelle Trainingsbeispiele wiedergeben. Und in den Klagen, mit denen das Unternehmen kämpft, macht es weiterhin geltend, dass es Fair-Use-Schutz bietet, und behauptet, dass seine Modelle transformative und keine plagiatorischen Werke schaffen.

OpenAI könnte sich in seinen Urheberrechtsstreitigkeiten durchaus durchsetzen.

Die Gerichte könnten entscheiden, dass die KI des Unternehmens einen „transformativen Zweck“ hat, und zwar in Anlehnung an den Präzedenzfall, der vor etwa einem Jahrzehnt in der Klage der Verlagsbranche gegen Google geschaffen wurde. In diesem Fall entschied ein Gericht, dass das Kopieren von Millionen Büchern durch Google für Google Books, eine Art digitales Archiv, zulässig sei.

OpenAI hat sagte öffentlich, dass es „unmöglich“ sei, wettbewerbsfähige KI-Modelle zu trainieren, ohne urheberrechtlich geschütztes Material zu verwenden – ob autorisiert oder nicht. „Die Beschränkung der Trainingsdaten auf gemeinfreie Bücher und Zeichnungen, die vor mehr als einem Jahrhundert erstellt wurden, könnte zu einem interessanten Experiment führen, würde aber keine KI-Systeme liefern, die den Bedürfnissen der heutigen Bürger gerecht werden“, schrieb das Unternehmen in einer Einreichung im Januar beim britischen Oberhaus .

Sollten Gerichte OpenAI schließlich für siegreich erklären, würde Media Manager keinen großen rechtlichen Zweck erfüllen. OpenAI scheint bereit zu sein, diese Wette einzugehen – oder seine Opt-out-Strategie zu überdenken.

tch-1-tech