San FranciscoDie stellvertretende Stadtanwältin von , Yvonne Meré, hat einen Klage gegen 16 Websites, die KI nutzen, um Deepfake-Pornografie zu erstellen, indem sie Frauen und Mädchen auf Fotos ohne deren Zustimmung ausziehen.
Mit diesem beispiellosen Gerichtsverfahren sollen diese beliebten Websites geschlossen werden, die sich als schädlicher Trend unter Jungen im Teenageralter erwiesen haben und Nacktheits-Apps verwenden, um Bilder ihrer Klassenkameradinnen zu manipulieren.
Laut der New York TimesDie 16 betroffenen Websites wurden in den ersten sechs Monaten dieses Jahres 200 Millionen Mal besucht. Die Unternehmen hinter diesen Websites befinden sich in Kalifornien, New Mexico, Großbritannien und Estland. Auf Anfragen nach Kommentaren waren die Vertreter der Websites entweder nicht erreichbar oder antworteten nicht.
Eine Website wirbt für ihre Dienste mit der Frage: „Haben Sie jemanden zum Ausziehen?“ Eine andere sagt: „Stellen Sie sich vor, Sie verschwenden Zeit damit, sie auf Dates einzuladen“, und empfiehlt den Benutzern, die Website zu nutzen, „um Nacktfotos von ihr zu bekommen“. Einige Websites bieten zunächst kostenlose Bilder an, verlangen später aber mehr und akzeptieren Zahlungen in Kryptowährung oder per Kreditkarte.
Die von diesen Websites verwendete Deepfake-Technologie basiert auf KI-Modellen, die mit echter Pornografie und Bildern, die Kindesmissbrauch zeigen, trainiert wurden, um aus Kleidungsbildern authentisch wirkende Nacktfotos zu erzeugen.
Der leitende Anwalt des Büros, David Chiu, betonte, dass die Konsequenzen für die Urheber der Bilder minimal seien. Er wies darauf hin, dass es schwierig sei, die verantwortlichen Websites zu identifizieren, sobald die Bilder in Umlauf geraten, was es für die Opfer schwierig mache, erfolgreich rechtliche Schritte einzuleiten.
„Der Artikel flog in unserem Büro herum und wir fragten uns: ‚Was können wir dagegen tun?‘“, erinnerte sich Chiu in einem Interview. „Niemand hat versucht, diese Unternehmen zur Verantwortung zu ziehen.“
Sara Eisenberg, Leiterin der Rechtsabteilung mit Schwerpunkt auf großen soziale Problemebetonte, dass das Problem allein durch Aufklärung von Jugendlichen über den sicheren Umgang mit Technologie nicht gelöst werden kann. Jedes Foto kann ohne die Zustimmung des Motivs manipuliert werden, wodurch herkömmliche Schutzmaßnahmen wirkungslos werden.
„Sie können sich im Internet und in sozialen Medien noch so gut auskennen, wie Sie wollen, und Sie können Ihren Kindern beibringen, wie sie sich im Internet schützen können, aber nichts davon kann sie davor schützen, dass jemand diese Seiten nutzt, um wirklich schreckliche, schädliche Dinge zu tun“, sagte Eisenberg.
Die Klage zielt auf eine einstweilige Verfügung ab, um die Websites zu schließen und ihnen in Zukunft die Erstellung von Deepfake-Pornografie dauerhaft zu untersagen. Sie fordert außerdem zivilrechtliche Strafen und die Zahlung von Anwaltskosten.
In der Klage wird argumentiert, dass diese Websites gegen staatliche und bundesstaatliche Gesetze gegen Rachepornografie und Kinderpornografie sowie gegen das kalifornische Gesetz gegen unlauteren Wettbewerb verstoßen, das rechtswidrige und unlautere Geschäftspraktiken verbietet.
Meré ergriff Maßnahmen, nachdem sie in einem Artikel der New York Times über die schädlichen Auswirkungen von Deepfake-Bildern gelesen hatte. Sie nahm sofort Kontakt zu Eisenberg auf, und gemeinsam baten sie Chiu um Unterstützung bei der Ausarbeitung der Klage.
„Die Technologie wurde genutzt, um Deepfake-Aktfotos von allen, von Taylor Swift bis zu gewöhnlichen Mittelschülerinnen, mit kaum sichtbaren Konsequenzen“, sagte Chiu. „Die Bilder werden manchmal verwendet, um Opfer um Geld zu erpressen oder sie zu demütigen und zu schikanieren.“
Experten warnen, dass Deepfake-Pornografie für die Opfer ernsthafte Risiken birgt und sich auf ihre psychische Gesundheit, ihren Ruf sowie ihre Studien- und Berufsaussichten auswirkt. Das Problem wird noch dadurch verschärft, dass es schwierig ist, den Ursprung der Bilder nachzuverfolgen, was rechtliche Schritte erschwert.
„Diese Strategie könnte als Whac-a-Mole-Ansatz angesehen werden, da weitere Websites auftauchen könnten“, räumte Chiu ein. Die Klage schlägt jedoch vor, weitere Websites hinzuzufügen, sobald sie entdeckt werden, und zielt auf eine umfassendere Durchsetzung ab, wenn sich das Problem weiterentwickelt.
San Francisco ist ein Zentrum für die Künstliche Intelligenz-Industrie mit großen Unternehmen wie OpenAI und Anthropic, die dort ansässig sind, ist ein passender Ort für diese rechtliche Herausforderung. Chiu würdigte die positiven Beiträge der KI-Branche, wies jedoch darauf hin, dass Deepfake-Pornografie eine „dunkle Seite“ darstelle, die angegangen werden müsse.
„Als Staatsanwalt mit der sich schnell verändernden Branche Schritt zu halten, ist eine Herausforderung“, sagte Chiu. „Aber das heißt nicht, dass wir es nicht versuchen sollten.“
Die Klage ist ein bedeutender Versuch, den Missbrauch von KI-Technologie zur Erstellung schädlicher Inhalte zu bekämpfen und diejenigen zur Rechenschaft zu ziehen, die diese zerstörerischen Praktiken fortsetzen.
Mit diesem beispiellosen Gerichtsverfahren sollen diese beliebten Websites geschlossen werden, die sich als schädlicher Trend unter Jungen im Teenageralter erwiesen haben und Nacktheits-Apps verwenden, um Bilder ihrer Klassenkameradinnen zu manipulieren.
Laut der New York TimesDie 16 betroffenen Websites wurden in den ersten sechs Monaten dieses Jahres 200 Millionen Mal besucht. Die Unternehmen hinter diesen Websites befinden sich in Kalifornien, New Mexico, Großbritannien und Estland. Auf Anfragen nach Kommentaren waren die Vertreter der Websites entweder nicht erreichbar oder antworteten nicht.
Eine Website wirbt für ihre Dienste mit der Frage: „Haben Sie jemanden zum Ausziehen?“ Eine andere sagt: „Stellen Sie sich vor, Sie verschwenden Zeit damit, sie auf Dates einzuladen“, und empfiehlt den Benutzern, die Website zu nutzen, „um Nacktfotos von ihr zu bekommen“. Einige Websites bieten zunächst kostenlose Bilder an, verlangen später aber mehr und akzeptieren Zahlungen in Kryptowährung oder per Kreditkarte.
Die von diesen Websites verwendete Deepfake-Technologie basiert auf KI-Modellen, die mit echter Pornografie und Bildern, die Kindesmissbrauch zeigen, trainiert wurden, um aus Kleidungsbildern authentisch wirkende Nacktfotos zu erzeugen.
Der leitende Anwalt des Büros, David Chiu, betonte, dass die Konsequenzen für die Urheber der Bilder minimal seien. Er wies darauf hin, dass es schwierig sei, die verantwortlichen Websites zu identifizieren, sobald die Bilder in Umlauf geraten, was es für die Opfer schwierig mache, erfolgreich rechtliche Schritte einzuleiten.
„Der Artikel flog in unserem Büro herum und wir fragten uns: ‚Was können wir dagegen tun?‘“, erinnerte sich Chiu in einem Interview. „Niemand hat versucht, diese Unternehmen zur Verantwortung zu ziehen.“
Sara Eisenberg, Leiterin der Rechtsabteilung mit Schwerpunkt auf großen soziale Problemebetonte, dass das Problem allein durch Aufklärung von Jugendlichen über den sicheren Umgang mit Technologie nicht gelöst werden kann. Jedes Foto kann ohne die Zustimmung des Motivs manipuliert werden, wodurch herkömmliche Schutzmaßnahmen wirkungslos werden.
„Sie können sich im Internet und in sozialen Medien noch so gut auskennen, wie Sie wollen, und Sie können Ihren Kindern beibringen, wie sie sich im Internet schützen können, aber nichts davon kann sie davor schützen, dass jemand diese Seiten nutzt, um wirklich schreckliche, schädliche Dinge zu tun“, sagte Eisenberg.
Die Klage zielt auf eine einstweilige Verfügung ab, um die Websites zu schließen und ihnen in Zukunft die Erstellung von Deepfake-Pornografie dauerhaft zu untersagen. Sie fordert außerdem zivilrechtliche Strafen und die Zahlung von Anwaltskosten.
In der Klage wird argumentiert, dass diese Websites gegen staatliche und bundesstaatliche Gesetze gegen Rachepornografie und Kinderpornografie sowie gegen das kalifornische Gesetz gegen unlauteren Wettbewerb verstoßen, das rechtswidrige und unlautere Geschäftspraktiken verbietet.
Meré ergriff Maßnahmen, nachdem sie in einem Artikel der New York Times über die schädlichen Auswirkungen von Deepfake-Bildern gelesen hatte. Sie nahm sofort Kontakt zu Eisenberg auf, und gemeinsam baten sie Chiu um Unterstützung bei der Ausarbeitung der Klage.
„Die Technologie wurde genutzt, um Deepfake-Aktfotos von allen, von Taylor Swift bis zu gewöhnlichen Mittelschülerinnen, mit kaum sichtbaren Konsequenzen“, sagte Chiu. „Die Bilder werden manchmal verwendet, um Opfer um Geld zu erpressen oder sie zu demütigen und zu schikanieren.“
Experten warnen, dass Deepfake-Pornografie für die Opfer ernsthafte Risiken birgt und sich auf ihre psychische Gesundheit, ihren Ruf sowie ihre Studien- und Berufsaussichten auswirkt. Das Problem wird noch dadurch verschärft, dass es schwierig ist, den Ursprung der Bilder nachzuverfolgen, was rechtliche Schritte erschwert.
„Diese Strategie könnte als Whac-a-Mole-Ansatz angesehen werden, da weitere Websites auftauchen könnten“, räumte Chiu ein. Die Klage schlägt jedoch vor, weitere Websites hinzuzufügen, sobald sie entdeckt werden, und zielt auf eine umfassendere Durchsetzung ab, wenn sich das Problem weiterentwickelt.
San Francisco ist ein Zentrum für die Künstliche Intelligenz-Industrie mit großen Unternehmen wie OpenAI und Anthropic, die dort ansässig sind, ist ein passender Ort für diese rechtliche Herausforderung. Chiu würdigte die positiven Beiträge der KI-Branche, wies jedoch darauf hin, dass Deepfake-Pornografie eine „dunkle Seite“ darstelle, die angegangen werden müsse.
„Als Staatsanwalt mit der sich schnell verändernden Branche Schritt zu halten, ist eine Herausforderung“, sagte Chiu. „Aber das heißt nicht, dass wir es nicht versuchen sollten.“
Die Klage ist ein bedeutender Versuch, den Missbrauch von KI-Technologie zur Erstellung schädlicher Inhalte zu bekämpfen und diejenigen zur Rechenschaft zu ziehen, die diese zerstörerischen Praktiken fortsetzen.