NEW YORK: Bildgebung mit künstlicher Intelligenz kann verwendet werden, um Kunst zu schaffen, Kleidung in virtuellen Umkleidekabinen anzuprobieren oder bei der Gestaltung von Werbekampagnen zu helfen. Experten befürchten jedoch, dass die dunkle Seite der leicht zugänglichen Tools etwas verschlimmern könnte, was vor allem Frauen schadet: nicht einvernehmliche Deepfake-Pornografie.
Deepfakes sind Videos und Bilder, die digital erstellt oder mit KI oder maschinellem Lernen verändert wurden. Pornos, die mit der Technologie erstellt wurden, verbreiteten sich erstmals vor einigen Jahren über das Internet, als ein Reddit-Benutzer Clips teilte, die die Gesichter weiblicher Prominenter auf den Schultern von Pornodarstellern platzierten.
Seitdem haben Deepfake-Ersteller ähnliche Videos und Bilder verbreitet, die sich an Online-Influencer, Journalisten und andere mit einem öffentlichen Profil richten. Tausende von Videos existieren auf einer Vielzahl von Websites. Und einige haben den Benutzern die Möglichkeit geboten, ihre eigenen Bilder zu erstellen – im Wesentlichen erlaubt es jedem, wen er will, ohne seine Zustimmung in sexuelle Fantasien zu verwandeln oder die Technologie zu nutzen, um ehemaligen Partnern Schaden zuzufügen.
Experten sagen, dass das Problem größer wurde, als es einfacher wurde, raffinierte Deepfakes zu erstellen. Und sie sagen, dass es mit der Entwicklung generativer KI-Tools noch schlimmer werden könnte, die auf Milliarden von Bildern aus dem Internet trainiert werden und anhand vorhandener Daten neuartige Inhalte ausspucken.
„Die Realität ist, dass sich die Technologie weiterentwickeln und so einfach wie das Drücken eines Knopfes werden wird“, sagte er Adam Ausweichen, der Gründer von EndTAB, einer Gruppe, die Schulungen zu technologiegestütztem Missbrauch anbietet. „Und solange das passiert, werden die Menschen weiterhin die Technologie missbrauchen, um anderen zu schaden, vor allem durch sexuelle Gewalt im Internet, Deepfake-Pornos und gefälschte Nacktbilder.“
Noelle Martinvon Perth, Australien, hat diese Realität erlebt. Die 28-Jährige fand vor 10 Jahren Deepfake-Pornos von sich selbst, als sie eines Tages aus Neugier mit Google nach einem Bild von sich selbst suchte. Bis heute, Martin sagt, sie wisse nicht, wer die gefälschten Bilder oder Videos von ihr beim Geschlechtsverkehr erstellt habe. Entsetzt kontaktierte Martin mehrere Jahre lang verschiedene Websites, um die Bilder zu entfernen. Einige haben nicht reagiert. Andere nahmen es herunter, aber sie fand es bald wieder. „Du kannst nicht gewinnen“, sagte sie. Schließlich wandte Martin ihre Aufmerksamkeit der Gesetzgebung zu und plädierte für ein nationales Gesetz in Australien, das Unternehmen mit einer Geldstrafe von 555.000 australischen Dollar (370.706 US-Dollar) belegen würde, wenn sie die Entfernungsbescheide für solche Inhalte von Online-Sicherheitsbehörden nicht einhalten.
Aber das Internet zu regieren ist nahezu unmöglich, wenn Länder ihre eigenen Gesetze für Inhalte haben, die manchmal auf der anderen Seite der Welt erstellt werden. In der Zwischenzeit sagen einige KI-Modelle, dass sie den Zugriff auf explizite Bilder einschränken. ap
Deepfakes sind Videos und Bilder, die digital erstellt oder mit KI oder maschinellem Lernen verändert wurden. Pornos, die mit der Technologie erstellt wurden, verbreiteten sich erstmals vor einigen Jahren über das Internet, als ein Reddit-Benutzer Clips teilte, die die Gesichter weiblicher Prominenter auf den Schultern von Pornodarstellern platzierten.
Seitdem haben Deepfake-Ersteller ähnliche Videos und Bilder verbreitet, die sich an Online-Influencer, Journalisten und andere mit einem öffentlichen Profil richten. Tausende von Videos existieren auf einer Vielzahl von Websites. Und einige haben den Benutzern die Möglichkeit geboten, ihre eigenen Bilder zu erstellen – im Wesentlichen erlaubt es jedem, wen er will, ohne seine Zustimmung in sexuelle Fantasien zu verwandeln oder die Technologie zu nutzen, um ehemaligen Partnern Schaden zuzufügen.
Experten sagen, dass das Problem größer wurde, als es einfacher wurde, raffinierte Deepfakes zu erstellen. Und sie sagen, dass es mit der Entwicklung generativer KI-Tools noch schlimmer werden könnte, die auf Milliarden von Bildern aus dem Internet trainiert werden und anhand vorhandener Daten neuartige Inhalte ausspucken.
„Die Realität ist, dass sich die Technologie weiterentwickeln und so einfach wie das Drücken eines Knopfes werden wird“, sagte er Adam Ausweichen, der Gründer von EndTAB, einer Gruppe, die Schulungen zu technologiegestütztem Missbrauch anbietet. „Und solange das passiert, werden die Menschen weiterhin die Technologie missbrauchen, um anderen zu schaden, vor allem durch sexuelle Gewalt im Internet, Deepfake-Pornos und gefälschte Nacktbilder.“
Noelle Martinvon Perth, Australien, hat diese Realität erlebt. Die 28-Jährige fand vor 10 Jahren Deepfake-Pornos von sich selbst, als sie eines Tages aus Neugier mit Google nach einem Bild von sich selbst suchte. Bis heute, Martin sagt, sie wisse nicht, wer die gefälschten Bilder oder Videos von ihr beim Geschlechtsverkehr erstellt habe. Entsetzt kontaktierte Martin mehrere Jahre lang verschiedene Websites, um die Bilder zu entfernen. Einige haben nicht reagiert. Andere nahmen es herunter, aber sie fand es bald wieder. „Du kannst nicht gewinnen“, sagte sie. Schließlich wandte Martin ihre Aufmerksamkeit der Gesetzgebung zu und plädierte für ein nationales Gesetz in Australien, das Unternehmen mit einer Geldstrafe von 555.000 australischen Dollar (370.706 US-Dollar) belegen würde, wenn sie die Entfernungsbescheide für solche Inhalte von Online-Sicherheitsbehörden nicht einhalten.
Aber das Internet zu regieren ist nahezu unmöglich, wenn Länder ihre eigenen Gesetze für Inhalte haben, die manchmal auf der anderen Seite der Welt erstellt werden. In der Zwischenzeit sagen einige KI-Modelle, dass sie den Zugriff auf explizite Bilder einschränken. ap