Google verbietet Deepfake-generierende KI von Colab – Tech

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Google hat das Training von KI-Systemen, die zur Generierung von Deepfakes verwendet werden können, auf seiner Google Colaboratory-Plattform verboten. Das Aktualisiert Nutzungsbedingungen, gesichtet über das Wochenende von BleepingComputer, nimmt Arbeiten im Zusammenhang mit Deepfakes in die Liste der nicht zugelassenen Projekte auf.

Colaboratory, oder kurz Colab, ist Ende 2017 aus einem internen Google Research-Projekt hervorgegangen. Es wurde entwickelt, um es jedem zu ermöglichen, beliebigen Python-Code über einen Webbrowser zu schreiben und auszuführen, insbesondere Code für maschinelles Lernen, Bildung und Datenanalyse. Zu diesem Zweck bietet Google sowohl kostenlosen als auch kostenpflichtigen Colab-Benutzern Zugriff auf Hardware, einschließlich GPUs und Googles kundenspezifischer, KI-beschleunigender Tensor Processing Units (TPUs).

In den letzten Jahren hat sich Colab zur De-facto-Plattform für Demos innerhalb der KI-Forschungsgemeinschaft entwickelt. Es ist nicht ungewöhnlich, dass Forscher, die Code geschrieben haben, Links zu Colab-Seiten auf oder neben den GitHub-Repositories enthalten, die den Code hosten. Aber Google war in der Vergangenheit nicht sehr restriktiv, wenn es um Colab-Inhalte ging, und öffnet möglicherweise die Tür für Akteure, die den Dienst für weniger skrupellose Zwecke nutzen möchten.

Nutzer des Open-Source-Deepfake-Generators DeepFaceLab wurde aufmerksam auf der Nutzungsbedingungen geändert, als mehrere eine Fehlermeldung erhielten, nachdem sie versucht hatten, DeepFaceLab in Colab auszuführen. Die Warnung lautete: „Möglicherweise führen Sie unzulässigen Code aus, und dies kann Ihre künftige Nutzung von Colab einschränken. Bitte beachten Sie die in unseren FAQ aufgeführten verbotenen Handlungen.“

Nicht jeder Code löst die Warnung aus. Dieser Reporter konnte laufen eines der beliebtesten Deepfake-Colab-Projekte ohne Probleme und Reddit-Benutzer berichten dass ein weiteres führendes Projekt, FaceSwap, voll funktionsfähig bleibt. Dies deutet darauf hin, dass die Durchsetzung eher auf einer schwarzen Liste als auf Schlüsselwörtern basiert und dass die Verantwortung bei der Colab-Community liegt, Code zu melden, der gegen die neue Regel verstößt.

„Wir überwachen regelmäßig Möglichkeiten für Missbrauch in Colab, die den KI-Prinzipien von Google zuwiderlaufen, und unterstützen gleichzeitig unsere Mission, unseren Benutzern Zugang zu wertvollen Ressourcen wie TPUs und GPUs zu gewähren. Deepfakes wurden unserer Liste der Aktivitäten hinzugefügt, die letzten Monat von Colab-Laufzeiten als Reaktion auf unsere regelmäßigen Überprüfungen missbräuchlicher Muster verboten wurden“, sagte ein Google-Sprecher per E-Mail gegenüber Tech. „Das Abschrecken von Missbrauch ist ein sich ständig weiterentwickelndes Spiel, und wir können keine spezifischen Methoden offenlegen, da Gegenparteien das Wissen ausnutzen können, um Erkennungssysteme zu umgehen. Im Allgemeinen haben wir automatisierte Systeme, die viele Arten von Missbrauch erkennen und verbieten.“

Archiv.org Daten zeigt, dass Google die Colab-Bedingungen irgendwann Mitte Mai stillschweigend aktualisiert hat. Die bisherigen Beschränkungen für Dinge wie das Ausführen von Denial-of-Service-Angriffen, das Knacken von Passwörtern und das Herunterladen von Torrents blieben unverändert.

Deepfakes gibt es in vielen Formen, aber eine der häufigsten sind Videos, in denen das Gesicht einer Person überzeugend auf ein anderes Gesicht geklebt wurde. Im Gegensatz zu den groben Photoshop-Jobs vergangener Zeiten können KI-generierte Deepfakes die Körperbewegungen, Mikroausdrücke und Hauttöne einer Person in einigen Fällen besser wiedergeben als CGI aus Hollywood.

Deepfakes können harmlos – sogar unterhaltsam – sein unzählige virale Videos habe gezeigt. Aber sie werden zunehmend von Hackern verwendet, um Social-Media-Nutzer anzugreifen Erpressung und der Betrug Schemata. Noch schändlicher ist, dass sie in der politischen Propaganda eingesetzt wurden, zum Beispiel um etwas zu erschaffen Videos des ukrainischen Präsidenten Wolodymyr Selenskyj, der eine Rede über den Krieg in der Ukraine hielt, die er eigentlich nie gehalten hat.

Von 2019 bis 2021 wuchs die Zahl der Deepfakes im Internet von rund 14.000 auf 145.000, gemäß zu einer Quelle. Forrester-Forschung geschätzt im Oktober 2019, dass Deepfake-Betrugsbetrug bis Ende 2020 250 Millionen Dollar kosten würde.

„Wenn es speziell um Deepfakes geht, ist das relevanteste Problem ein ethisches: Dual Use“, sagte Vagrant Gautam, ein Computerlinguist an der Universität des Saarlandes in Deutschland, per E-Mail gegenüber Tech. „Es ist ein bisschen so, als würde man an Waffen oder Chlor denken. Chlor ist nützlich, um Dinge zu reinigen, aber es wurde auch als chemische Waffe eingesetzt. Also gehen wir damit um, indem wir zuerst darüber nachdenken, wie schlecht die Technologie ist, und uns dann zB auf das Genfer Protokoll einigen, dass wir keine chemischen Waffen gegeneinander einsetzen werden. Leider haben wir keine branchenweit konsistenten ethischen Praktiken in Bezug auf maschinelles Lernen und KI, aber es ist sinnvoll, dass Google seine eigenen Konventionen entwickelt, die den Zugriff auf und die Fähigkeit zum Erstellen von Deepfakes regeln, zumal sie häufig vorkommen verwendet, um zu desinformieren und gefälschte Nachrichten zu verbreiten – ein Problem, das schlimm ist und sich weiter verschlimmert.“

Os Keyes, außerordentlicher Professor an der Seattle University, stimmte auch dem Schritt von Google zu, Deepfake-Projekte von Colab zu verbieten. Er stellte jedoch fest, dass auf politischer Seite mehr getan werden muss, um ihre Entstehung und Verbreitung zu verhindern.

„Die Art und Weise, wie dies getan wurde, unterstreicht sicherlich die Armut, sich auf die Selbstkontrolle von Unternehmen zu verlassen“, sagte Keyes per E-Mail gegenüber Tech. „Deepfake-Generierung sollte absolut keine akzeptable Form der Arbeit sein, naja, nirgendwo, und deshalb ist es gut, dass Google sich dabei nicht mitschuldig macht … Aber das Verbot erfolgt nicht in einem Vakuum – es tritt in einer Umgebung auf, in der tatsächlich, Es fehlt an einer rechenschaftspflichtigen, reaktionsschnellen Regulierung dieser Art von Entwicklungsplattformen (und Unternehmen).

Andere, insbesondere diejenigen, die von Colabs früherem Laissez-faire-Governance-Ansatz profitierten, stimmen möglicherweise nicht zu. Vor Jahren lehnte das KI-Forschungslabor OpenAI zunächst ab, ein sprachgenerierendes Modell, GPT-2, als Open Source zu veröffentlichen, aus Angst, dass es missbraucht werden könnte. Dies motivierte Gruppen wie EleutherAI um Tools wie Colab zu nutzen, um ihre eigenen sprachgenerierenden Modelle zu entwickeln und zu veröffentlichen, angeblich für Forschungszwecke.

Wenn ich gesprochen gegenüber Connor Leahy, einem Mitglied von EleutherAI, behauptete er letztes Jahr, dass die Kommerzialisierung von KI-Modellen Teil eines „unvermeidlichen Trends“ bei fallenden Preisen für die Produktion „überzeugender digitaler Inhalte“ sei, die nicht entgleisen werden, ob oder nicht der Code wird freigegeben. Seiner Ansicht nach sollten KI-Modelle und -Werkzeuge allgemein verfügbar gemacht werden, damit Benutzer mit „schwachen Ressourcen“, insbesondere Akademiker, Zugang zu besseren Studien erhalten und ihre eigene sicherheitsorientierte Forschung an ihnen durchführen können.

„Deepfakes haben ein großes Potenzial, den KI-Prinzipien von Google zu widersprechen. Wir streben danach, missbräuchliche Deepfake-Muster im Vergleich zu gutartigen erkennen und abschrecken zu können, und werden unsere Richtlinien ändern, wenn unsere Methoden Fortschritte machen“, fuhr der Sprecher fort. „Benutzer, die synthetische Medienprojekte auf harmlose Weise erkunden möchten, werden ermutigt, mit einem Google Cloud-Vertreter zu sprechen, um ihren Anwendungsfall zu prüfen und die Eignung anderer Managed-Computing-Angebote in Google Cloud zu erkunden.“

tch-1-tech