Runway kündigt eine API für seine videogenerierenden KI-Modelle an

Runway kuendigt eine API fuer seine videogenerierenden KI Modelle an

Runwayeines von mehreren KI-Startups, die Video-Generierungstechnologie entwickeln, heute angekündigt eine API, die es Entwicklern und Organisationen ermöglicht, die generativen KI-Modelle des Unternehmens in Plattformen, Apps und Dienste von Drittanbietern zu integrieren.

Derzeit nur eingeschränkt verfügbar (es gibt eine Warteliste), bietet die Runway API nur ein einziges Modell zur Auswahl – Gen-3 Alpha Turbo, eine schnellere, aber weniger leistungsfähige Version von Runways Flaggschiff Gen-3 Alpha – und zwei Pläne, Build (das sich an Einzelpersonen und Teams richtet) und Enterprise. Der Grundpreis beträgt einen Cent pro Kredit (eine Sekunde Video kostet fünf Credits) und Runway sagt, dass „vertrauenswürdige strategische Partner“, darunter die Marketinggruppe Omnicom, die API bereits verwenden.

Die Runway-API bringt auch ungewöhnliche Offenlegungspflichten mit sich. Alle Schnittstellen, die die API verwenden, müssen „prominent“ ein „Powered by Runway“-Banner anzeigen, das auf die Website von Runway verweist, schreibt das Unternehmen in einem Blogbeitrag, um „[help] Benutzer verstehen die Technologie dahinter [applications] unter Einhaltung unserer Nutzungsbedingungen.“

Runway, das von Investoren wie Salesforce, Google und Nvidia unterstützt wird und zuletzt mit 1,5 Milliarden Dollar bewertet wurde, sieht sich im Bereich der Videogenerierung starker Konkurrenz ausgesetzt, unter anderem von OpenAI, Google und Adobe. OpenAI wird voraussichtlich im Herbst sein Videogenerierungsmodell Sora in irgendeiner Form veröffentlichen, während Startups wie Luma Labs ihre Technologien weiter verfeinern.

Bildnachweise: Runway

Ein typisches Beispiel dafür ist, dass Luma heute, und das ist wohl kein Zufall, gestartet seine API zur Videogenerierung, die keine Warteliste hat und über Funktionen hinausgeht, die Runway bietet, einschließlich der Möglichkeit, die virtuelle Kamera in KI-generierten Szenen zu „steuern“.

Mit der vorläufigen Einführung der Runway API wird Runway zu einem der ersten KI-Anbieter, der ein Videogenerierungsmodell über eine API anbietet. Doch während die API dem Unternehmen auf seinem Weg zur Profitabilität helfen könnte (oder zumindest dabei, die hohen Kosten für das Training und den Betrieb der Modelle wieder hereinzuholen), wird sie die verbleibenden rechtlichen Fragen rund um diese Modelle und die generative KI-Technologie im weiteren Sinne nicht lösen.

Die Videogenerierungsmodelle von Runway wurden wie alle Videogenerierungsmodelle anhand einer großen Anzahl von Videobeispielen trainiert, um die Muster in diesen Videos zu „lernen“ und neues Filmmaterial zu generieren. Woher kamen die Trainingsdaten? Runway weigert sich, dies zu sagen, wie viele Anbieter heutzutage – teilweise aus Angst, Wettbewerbsvorteile einzubüßen.

Aber Trainingsdetails sind auch eine potenzielle Quelle von IP-bezogenen Klagen, wenn Runway ohne Erlaubnis mit urheberrechtlich geschützten Daten trainiert hat. Es gibt Beweise dafür, dass dies tatsächlich der Fall war – ein Bericht von 404 Media veröffentlichte im Juli eine Runway-Tabelle mit Trainingsdaten, die Links zu YouTube-Kanälen von Netflix, Disney, Rockstar Games und Entwicklern wie Linus Tech Tips und MKBHD enthielt.

Es ist unklar, ob Runway letztlich eines der Videos aus der Tabelle verwendet hat, um seine Videomodelle zu trainieren. In einem Interview mit Tech im Juni sagte Runway-Mitbegründer Anastasis Germanidis lediglich, dass das Unternehmen „kuratierte, interne Datensätze“ für das Modelltraining verwendet. Aber selbst wenn das der Fall wäre, wäre es nicht der einzige KI-Anbieter, der es mit den Urheberrechten nicht so genau nimmt.

Anfang des Jahres bestritt Mira Murati, CTO von OpenAI, nicht direkt, dass Sora mit YouTube-Inhalten trainiert wurde. Und Nvidia Berichten zufolge verwendete YouTube-Videos, um ein internes Videogenerierungsmodell namens Cosmos zu trainieren.

Viele Anbieter generativer KI glauben, dass die Doktrin bekannt als Faire Nutzung bietet Rechtsschutz — und Sie behaupten dies vor Gericht und in öffentliche Stellungnahmen. Andere wiederum sind weniger risikofreudig und/oder betrachten einen „ethischeren“ Ansatz beim Modelltraining als Verkaufsargument für ihre Dienste. Bei der Entwicklung seiner Firefly-Modelle zur Videogenerierung soll Adobe Angebot Zahlungen an Künstler im Austausch für beispielsweise Clips.

In seinen Servicebedingungen erklärt Luma, dass es sich bereit erklärt, API-Geschäftskunden für Schäden zu verteidigen und schadlos zu halten, die aus Ansprüchen wegen IP-Verletzungen entstehen. Andere Anbieter, darunter OpenAI, bieten ähnliche Entschädigungsrichtlinien an; Runway tut dies nicht, obwohl es im vergangenen Dezember angekündigt hat, dass es mit der Stock-Media-Bibliothek Getty zusammenarbeiten wird, um „kommerziell sicherere“ Versionen seiner Produkte zu entwickeln.

Wie auch immer die Gerichtsverfahren zur Rechtmäßigkeit von Schulungen zu urheberrechtlich geschützten Inhalten ausgehen, eines wird klar: Generative KI-Videotools drohen die Film- und Fernsehbranche, wie wir sie kennen, auf den Kopf zu stellen.

Ein 2024 Studie Eine von der Animation Guild, einer Gewerkschaft, die Hollywood-Animatoren und Cartoonisten vertritt, in Auftrag gegebene Studie ergab, dass 75 % der Filmproduktionsfirmen, die KI eingeführt haben, nach der Einführung der Technologie Arbeitsplätze abgebaut, konsolidiert oder abgebaut haben. Die Studie schätzt außerdem, dass bis 2026 mehr als 100.000 Arbeitsplätze in der US-Unterhaltungsbranche durch generative KI verloren gehen werden.

Aktualisiert am 16.09. um 11:18 Uhr pazifischer Zeit: Informationen zum API-Start von Luma hinzugefügt.

tch-1-tech