Die Bildgebung mit künstlicher Intelligenz kann verwendet werden, um Kunst zu schaffen, Kleidung in virtuellen Umkleidekabinen anzuprobieren oder bei der Gestaltung von Werbekampagnen zu helfen.
Experten befürchten jedoch, dass die dunkle Seite der leicht zugänglichen Tools etwas verschlimmern könnte, was vor allem Frauen schadet: nicht einvernehmliche Deepfake-Pornografie.
Deepfakes sind Videos und Bilder, die digital erstellt oder mit künstlicher Intelligenz oder maschinellem Lernen verändert wurden. Porno Die mithilfe der Technologie erstellten Videos verbreiteten sich erstmals vor einigen Jahren über das Internet, als ein Reddit-Benutzer Clips teilte, die die Gesichter weiblicher Prominenter auf den Schultern von Pornodarstellern platzierten.
Seitdem haben Deepfake-Ersteller ähnliche Videos und Bilder verbreitet, die sich an Online-Influencer, Journalisten und andere mit einem öffentlichen Profil richten. Tausende von Videos existieren auf einer Vielzahl von Websites. Und einige bieten Benutzern die Möglichkeit, ihre eigenen Bilder zu erstellen – was im Wesentlichen jedem erlaubt, wen er will, ohne seine Zustimmung in sexuelle Fantasien zu verwandeln oder die Technologie zu nutzen, um ehemaligen Partnern Schaden zuzufügen.
Experten sagen, dass das Problem größer wurde, als es einfacher wurde, raffinierte und visuell überzeugende Deepfakes zu erstellen. Und sie sagen, dass es mit der Entwicklung generativer KI-Tools noch schlimmer werden könnte, die auf Milliarden von Bildern aus dem Internet trainiert werden und anhand vorhandener Daten neuartige Inhalte ausspucken.
„Die Realität ist, dass sich die Technologie weiter ausbreiten, weiterentwickeln und so einfach wie das Drücken eines Knopfes werden wird“, sagte Adam Dodge, der Gründer von EndTAB, einer Gruppe, die Schulungen zu technologiegestütztem Missbrauch anbietet . „Und solange das passiert, werden die Menschen diese Technologie zweifellos weiter missbrauchen, um anderen zu schaden, vor allem durch sexuelle Online-Gewalt, Deepfake-Pornografie und gefälschte Nacktbilder.“
Noelle Martin aus Perth, Australien, hat diese Realität erlebt. Die 28-Jährige fand vor 10 Jahren Deepfake-Pornos von sich selbst, als sie eines Tages aus Neugier mit Google nach einem Bild von sich selbst suchte. Bis heute, Martin sagt, sie wisse nicht, wer die gefälschten Bilder oder Videos von ihr beim Geschlechtsverkehr erstellt habe, die sie später finden würde. Sie vermutet, dass jemand wahrscheinlich ein Foto gemacht hat, das auf ihrer Social-Media-Seite oder anderswo gepostet wurde, und es zu einem Porno manipuliert hat.
Entsetzt kontaktierte Martin mehrere Jahre lang verschiedene Websites, um die Bilder zu entfernen. Einige haben nicht reagiert. Andere nahmen es herunter, aber sie fand es bald wieder.
„Du kannst nicht gewinnen“, sagte Martin. „Das ist etwas, das immer da draußen sein wird. Es ist, als hätte es dich für immer ruiniert.“
Je mehr sie sich zu Wort meldete, sagte sie, desto mehr eskalierte das Problem. Einige Leute sagten ihr sogar, dass die Art und Weise, wie sie sich kleidete und Bilder in den sozialen Medien veröffentlichte, zu der Belästigung beitrug – im Wesentlichen machten sie sie für die Bilder und nicht die Schöpfer verantwortlich.
Schließlich wandte Martin ihre Aufmerksamkeit der Gesetzgebung zu und plädierte für ein nationales Gesetz in Australien, das Unternehmen mit einer Geldstrafe von 555.000 australischen Dollar (370.706 US-Dollar) belegen würde, wenn sie die Entfernungsbescheide für solche Inhalte von Online-Sicherheitsbehörden nicht einhalten.
Aber das Internet zu regieren ist nahezu unmöglich, wenn Länder ihre eigenen Gesetze für Inhalte haben, die manchmal auf der anderen Seite der Welt erstellt werden. Martin, derzeit Rechtsanwalt und Rechtswissenschaftler bei der Universität von Westaustraliensagt sie glaubt, dass das Problem durch eine Art globale Lösung kontrolliert werden muss.
In der Zwischenzeit sagen einige KI-Modelle, dass sie den Zugang zu expliziten Bildern bereits einschränken.
OpenAI sagt, es habe explizite Inhalte aus Daten entfernt, die zum Trainieren des Bilderzeugungstools DALL-E verwendet wurden, was die Fähigkeit der Benutzer einschränkt, diese Art von Bildern zu erstellen. Das Unternehmen filtert auch Anfragen und sagt, dass es Benutzer daran hindert, KI-Bilder von Prominenten und prominenten Politikern zu erstellen. Midjourney, ein weiteres Modell, blockiert die Verwendung bestimmter Schlüsselwörter und ermutigt Benutzer, problematische Bilder an Moderatoren zu melden.
Unterdessen hat das Startup Stability AI im November ein Update herausgebracht, das die Möglichkeit entfernt, explizite Bilder mit seinem Bildgenerator Stable Diffusion zu erstellen. Diese Änderungen erfolgten nach Berichten, dass einige Benutzer mit der Technologie von Prominenten inspirierte Nacktbilder erstellten.
Motez Bishara, Sprecher der Stabilitäts-KI, sagte, der Filter verwende eine Kombination aus Schlüsselwörtern und anderen Techniken wie Bilderkennung, um Nacktheit zu erkennen, und gebe ein verschwommenes Bild zurück. Aber es ist für Benutzer möglich, die Software zu manipulieren und zu generieren, was sie wollen, da das Unternehmen seinen Code für die Öffentlichkeit freigibt. Bishara sagte, die Lizenz von Stability AI „erweitere sich auf Anwendungen von Drittanbietern, die auf Stable Diffusion basieren“ und verbiete strikt „jeden Missbrauch für illegale oder unmoralische Zwecke“.
Auch einige Social-Media-Unternehmen haben ihre Regeln verschärft, um ihre Plattformen besser vor schädlichen Materialien zu schützen.
Tick Tack sagte letzten Monat, dass alle Deepfakes oder manipulierten Inhalte, die realistische Szenen zeigen, gekennzeichnet werden müssen, um anzuzeigen, dass sie gefälscht oder in irgendeiner Weise verändert sind, und dass Deepfakes von Privatpersonen und jungen Menschen nicht mehr erlaubt sind. Zuvor hatte das Unternehmen sexuell explizite Inhalte und Deepfakes gesperrt, die Zuschauer über reale Ereignisse irreführen und Schaden anrichten.
Auch die Gaming-Plattform Twitch hat kürzlich ihre Richtlinien zu expliziten Deepfake-Bildern aktualisiert, nachdem entdeckt wurde, dass ein beliebter Streamer namens Atrioc während eines Livestreams Ende Januar eine Deepfake-Porno-Website in seinem Browser geöffnet hat. Die Seite zeigte gefälschte Bilder von anderen Twitch-Streamern.
Twitch hat bereits explizite Deepfakes verboten, aber nun zeigt ein Blick auf solche Inhalte – auch wenn damit Empörung ausgedrückt werden soll – „wird entfernt und führt zu einer Durchsetzung“, schrieb das Unternehmen in einem Blogbeitrag. Und das absichtliche Fördern, Erstellen oder Teilen des Materials ist ein Grund für ein sofortiges Verbot.
Andere Unternehmen haben ebenfalls versucht, Deepfakes von ihren Plattformen zu verbannen, aber es erfordert Sorgfalt, sie fernzuhalten.
Apple und Google sagten kürzlich, sie hätten eine App aus ihren App Stores entfernt, die sexuell anzügliche Deepfake-Videos von Schauspielerinnen lief, um das Produkt zu vermarkten. Die Erforschung von Deepfake-Pornos ist nicht weit verbreitet, aber ein 2019 von der KI-Firma DeepTrace Labs veröffentlichter Bericht ergab, dass sie fast ausschließlich gegen Frauen als Waffe eingesetzt wurden und die am stärksten betroffenen Personen westliche Schauspielerinnen waren, gefolgt von südkoreanischen K-Pop-Sängern.
Dieselbe App, die von Google und Apple entfernt wurde, hatte Anzeigen auf Metas Plattform geschaltet, zu der Facebook, Instagram und Messenger gehören. Meta-Sprecher Dani Lever sagte in einer Erklärung, dass die Unternehmensrichtlinie sowohl KI-generierte als auch Nicht-KI-Inhalte für Erwachsene einschränkt und die Seite der App von Werbung auf ihren Plattformen ausgeschlossen hat.
Im Februar begannen Meta sowie Websites für Erwachsene wie OnlyFans und Pornhub mit der Teilnahme an einem Online-Tool namens Take It Down, das es Teenagern ermöglicht, explizite Bilder und Videos von sich selbst aus dem Internet zu melden. Die Meldeseite arbeitet mit regulären Bildern und KI-generierten Inhalten – was für Kinderschutzgruppen zu einem wachsenden Problem geworden ist.
„Wenn die Leute unsere Führungsspitze fragen, was sind die Felsbrocken, die den Hügel hinunterkommen, über die wir uns Sorgen machen? Das erste ist die End-to-End-Verschlüsselung und was das für den Kinderschutz bedeutet. Und dann ist das zweite die KI und insbesondere Deepfakes“, sagte er Gavin Portnoy, ein Sprecher des Nationalen Zentrums für vermisste und ausgebeutete Kinder, das das Take It Down-Tool betreibt.
„Wir konnten noch keine direkte Antwort darauf formulieren“, sagte Portnoy.
Experten befürchten jedoch, dass die dunkle Seite der leicht zugänglichen Tools etwas verschlimmern könnte, was vor allem Frauen schadet: nicht einvernehmliche Deepfake-Pornografie.
Deepfakes sind Videos und Bilder, die digital erstellt oder mit künstlicher Intelligenz oder maschinellem Lernen verändert wurden. Porno Die mithilfe der Technologie erstellten Videos verbreiteten sich erstmals vor einigen Jahren über das Internet, als ein Reddit-Benutzer Clips teilte, die die Gesichter weiblicher Prominenter auf den Schultern von Pornodarstellern platzierten.
Seitdem haben Deepfake-Ersteller ähnliche Videos und Bilder verbreitet, die sich an Online-Influencer, Journalisten und andere mit einem öffentlichen Profil richten. Tausende von Videos existieren auf einer Vielzahl von Websites. Und einige bieten Benutzern die Möglichkeit, ihre eigenen Bilder zu erstellen – was im Wesentlichen jedem erlaubt, wen er will, ohne seine Zustimmung in sexuelle Fantasien zu verwandeln oder die Technologie zu nutzen, um ehemaligen Partnern Schaden zuzufügen.
Experten sagen, dass das Problem größer wurde, als es einfacher wurde, raffinierte und visuell überzeugende Deepfakes zu erstellen. Und sie sagen, dass es mit der Entwicklung generativer KI-Tools noch schlimmer werden könnte, die auf Milliarden von Bildern aus dem Internet trainiert werden und anhand vorhandener Daten neuartige Inhalte ausspucken.
„Die Realität ist, dass sich die Technologie weiter ausbreiten, weiterentwickeln und so einfach wie das Drücken eines Knopfes werden wird“, sagte Adam Dodge, der Gründer von EndTAB, einer Gruppe, die Schulungen zu technologiegestütztem Missbrauch anbietet . „Und solange das passiert, werden die Menschen diese Technologie zweifellos weiter missbrauchen, um anderen zu schaden, vor allem durch sexuelle Online-Gewalt, Deepfake-Pornografie und gefälschte Nacktbilder.“
Noelle Martin aus Perth, Australien, hat diese Realität erlebt. Die 28-Jährige fand vor 10 Jahren Deepfake-Pornos von sich selbst, als sie eines Tages aus Neugier mit Google nach einem Bild von sich selbst suchte. Bis heute, Martin sagt, sie wisse nicht, wer die gefälschten Bilder oder Videos von ihr beim Geschlechtsverkehr erstellt habe, die sie später finden würde. Sie vermutet, dass jemand wahrscheinlich ein Foto gemacht hat, das auf ihrer Social-Media-Seite oder anderswo gepostet wurde, und es zu einem Porno manipuliert hat.
Entsetzt kontaktierte Martin mehrere Jahre lang verschiedene Websites, um die Bilder zu entfernen. Einige haben nicht reagiert. Andere nahmen es herunter, aber sie fand es bald wieder.
„Du kannst nicht gewinnen“, sagte Martin. „Das ist etwas, das immer da draußen sein wird. Es ist, als hätte es dich für immer ruiniert.“
Je mehr sie sich zu Wort meldete, sagte sie, desto mehr eskalierte das Problem. Einige Leute sagten ihr sogar, dass die Art und Weise, wie sie sich kleidete und Bilder in den sozialen Medien veröffentlichte, zu der Belästigung beitrug – im Wesentlichen machten sie sie für die Bilder und nicht die Schöpfer verantwortlich.
Schließlich wandte Martin ihre Aufmerksamkeit der Gesetzgebung zu und plädierte für ein nationales Gesetz in Australien, das Unternehmen mit einer Geldstrafe von 555.000 australischen Dollar (370.706 US-Dollar) belegen würde, wenn sie die Entfernungsbescheide für solche Inhalte von Online-Sicherheitsbehörden nicht einhalten.
Aber das Internet zu regieren ist nahezu unmöglich, wenn Länder ihre eigenen Gesetze für Inhalte haben, die manchmal auf der anderen Seite der Welt erstellt werden. Martin, derzeit Rechtsanwalt und Rechtswissenschaftler bei der Universität von Westaustraliensagt sie glaubt, dass das Problem durch eine Art globale Lösung kontrolliert werden muss.
In der Zwischenzeit sagen einige KI-Modelle, dass sie den Zugang zu expliziten Bildern bereits einschränken.
OpenAI sagt, es habe explizite Inhalte aus Daten entfernt, die zum Trainieren des Bilderzeugungstools DALL-E verwendet wurden, was die Fähigkeit der Benutzer einschränkt, diese Art von Bildern zu erstellen. Das Unternehmen filtert auch Anfragen und sagt, dass es Benutzer daran hindert, KI-Bilder von Prominenten und prominenten Politikern zu erstellen. Midjourney, ein weiteres Modell, blockiert die Verwendung bestimmter Schlüsselwörter und ermutigt Benutzer, problematische Bilder an Moderatoren zu melden.
Unterdessen hat das Startup Stability AI im November ein Update herausgebracht, das die Möglichkeit entfernt, explizite Bilder mit seinem Bildgenerator Stable Diffusion zu erstellen. Diese Änderungen erfolgten nach Berichten, dass einige Benutzer mit der Technologie von Prominenten inspirierte Nacktbilder erstellten.
Motez Bishara, Sprecher der Stabilitäts-KI, sagte, der Filter verwende eine Kombination aus Schlüsselwörtern und anderen Techniken wie Bilderkennung, um Nacktheit zu erkennen, und gebe ein verschwommenes Bild zurück. Aber es ist für Benutzer möglich, die Software zu manipulieren und zu generieren, was sie wollen, da das Unternehmen seinen Code für die Öffentlichkeit freigibt. Bishara sagte, die Lizenz von Stability AI „erweitere sich auf Anwendungen von Drittanbietern, die auf Stable Diffusion basieren“ und verbiete strikt „jeden Missbrauch für illegale oder unmoralische Zwecke“.
Auch einige Social-Media-Unternehmen haben ihre Regeln verschärft, um ihre Plattformen besser vor schädlichen Materialien zu schützen.
Tick Tack sagte letzten Monat, dass alle Deepfakes oder manipulierten Inhalte, die realistische Szenen zeigen, gekennzeichnet werden müssen, um anzuzeigen, dass sie gefälscht oder in irgendeiner Weise verändert sind, und dass Deepfakes von Privatpersonen und jungen Menschen nicht mehr erlaubt sind. Zuvor hatte das Unternehmen sexuell explizite Inhalte und Deepfakes gesperrt, die Zuschauer über reale Ereignisse irreführen und Schaden anrichten.
Auch die Gaming-Plattform Twitch hat kürzlich ihre Richtlinien zu expliziten Deepfake-Bildern aktualisiert, nachdem entdeckt wurde, dass ein beliebter Streamer namens Atrioc während eines Livestreams Ende Januar eine Deepfake-Porno-Website in seinem Browser geöffnet hat. Die Seite zeigte gefälschte Bilder von anderen Twitch-Streamern.
Twitch hat bereits explizite Deepfakes verboten, aber nun zeigt ein Blick auf solche Inhalte – auch wenn damit Empörung ausgedrückt werden soll – „wird entfernt und führt zu einer Durchsetzung“, schrieb das Unternehmen in einem Blogbeitrag. Und das absichtliche Fördern, Erstellen oder Teilen des Materials ist ein Grund für ein sofortiges Verbot.
Andere Unternehmen haben ebenfalls versucht, Deepfakes von ihren Plattformen zu verbannen, aber es erfordert Sorgfalt, sie fernzuhalten.
Apple und Google sagten kürzlich, sie hätten eine App aus ihren App Stores entfernt, die sexuell anzügliche Deepfake-Videos von Schauspielerinnen lief, um das Produkt zu vermarkten. Die Erforschung von Deepfake-Pornos ist nicht weit verbreitet, aber ein 2019 von der KI-Firma DeepTrace Labs veröffentlichter Bericht ergab, dass sie fast ausschließlich gegen Frauen als Waffe eingesetzt wurden und die am stärksten betroffenen Personen westliche Schauspielerinnen waren, gefolgt von südkoreanischen K-Pop-Sängern.
Dieselbe App, die von Google und Apple entfernt wurde, hatte Anzeigen auf Metas Plattform geschaltet, zu der Facebook, Instagram und Messenger gehören. Meta-Sprecher Dani Lever sagte in einer Erklärung, dass die Unternehmensrichtlinie sowohl KI-generierte als auch Nicht-KI-Inhalte für Erwachsene einschränkt und die Seite der App von Werbung auf ihren Plattformen ausgeschlossen hat.
Im Februar begannen Meta sowie Websites für Erwachsene wie OnlyFans und Pornhub mit der Teilnahme an einem Online-Tool namens Take It Down, das es Teenagern ermöglicht, explizite Bilder und Videos von sich selbst aus dem Internet zu melden. Die Meldeseite arbeitet mit regulären Bildern und KI-generierten Inhalten – was für Kinderschutzgruppen zu einem wachsenden Problem geworden ist.
„Wenn die Leute unsere Führungsspitze fragen, was sind die Felsbrocken, die den Hügel hinunterkommen, über die wir uns Sorgen machen? Das erste ist die End-to-End-Verschlüsselung und was das für den Kinderschutz bedeutet. Und dann ist das zweite die KI und insbesondere Deepfakes“, sagte er Gavin Portnoy, ein Sprecher des Nationalen Zentrums für vermisste und ausgebeutete Kinder, das das Take It Down-Tool betreibt.
„Wir konnten noch keine direkte Antwort darauf formulieren“, sagte Portnoy.