KI wird immer besser darin, Pornos zu erzeugen. Wir sind möglicherweise nicht auf die Folgen vorbereitet. – Tech

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Eine rothaarige Frau steht auf dem Mond, ihr Gesicht verdunkelt. Ihr nackter Körper sieht aus, als gehöre er auf ein Poster, das man an der Schlafzimmerwand eines hormonellen Teenagers finden würde – das heißt, bis man ihren Oberkörper erreicht, wo drei Arme aus ihren Schultern spucken.

KI-gestützte Systeme wie Stable Diffusion, die Textaufforderungen in Bilder übersetzen, wurden von Marken und Künstlern verwendet, um Konzeptbilder zu erstellen, die preisgekrönt sind (wenn auch umstritten) Drucke und ausgewachsene Marketingkampagnen.

Aber einige Benutzer, die darauf bedacht sind, die düstereren Seiten der Systeme zu erkunden, haben sie für eine andere Art von Anwendungsfall getestet: Pornos.

KI-Pornos sind ungefähr so ​​beunruhigend und unvollkommen, wie man erwarten würde (dieser Rotschopf auf dem Mond wurde wahrscheinlich nicht von jemandem mit einem zusätzlichen Armfetisch erzeugt). Aber während sich die Technologie weiter verbessert, wird sie herausfordernde Fragen für KI-Ethiker und Sexarbeiterinnen gleichermaßen aufwerfen.

Pornografie, die mit den neuesten Bilderzeugungssystemen erstellt wurde, kam Anfang dieses Monats erstmals über die Diskussionsforen 4chan und Reddit auf die Bühne, nachdem ein Mitglied von 4chan das Open-Source-Stable-Diffusion-System vor seiner offiziellen Veröffentlichung durchgesickert war. Dann wurde letzte Woche eine der ersten Websites gestartet, die sich der High-Fidelity-KI-Pornogenerierung widmet.

Die Website mit dem Namen Porn Pen ermöglicht es Benutzern, das Erscheinungsbild von nackten KI-generierten Modellen – allesamt Frauen – mit umschaltbaren Tags wie „Baby“, „Dessous-Model“, „mollig“, Ethnien (z. B. „Russisch“ und „ Latina“) und Hintergründe (z. B. „Schlafzimmer“, „Dusche“ und Platzhalter wie „Mond“). Buttons erfassen Modelle von vorne, hinten oder von der Seite und verändern das Aussehen des generierten Fotos (z. B. „Filmfoto“, „Spiegel-Selfie“). Es muss jedoch einen Fehler bei den Spiegel-Selfies geben, denn im Feed von benutzergenerierten Bildern spiegeln einige Spiegel nicht wirklich eine Person wider – aber natürlich sind diese Modelle überhaupt keine Menschen. Porn Pen funktioniert wie „Diese Person existiert nicht“, nur dass es NSFW ist.

Auf den Hacker-News von Y Combinator Forum, beschreibt ein Benutzer, der vorgibt, der Ersteller zu sein, Porn Pen als „Experiment“ mit modernsten Text-zu-Bild-Modellen. „Ich habe ausdrücklich die Möglichkeit entfernt, benutzerdefinierten Text anzugeben, um zu vermeiden, dass schädliche Bilder generiert werden“, schrieben sie. „Neue Tags werden hinzugefügt, sobald der Prompt-Engineering-Algorithmus weiter verfeinert wurde.“ Der Ersteller hat auf die Anfrage von Tech nach einem Kommentar nicht geantwortet.

Aber Porn Pen wirft eine Vielzahl ethischer Fragen auf, wie Vorurteile in bildgenerierenden Systemen und die Quellen der Daten, aus denen sie entstanden sind. Abgesehen von den technischen Implikationen fragt man sich, ob neue Technologien zur Erstellung maßgeschneiderter Pornos – vorausgesetzt, sie setzen sich durch – den Erstellern von Inhalten für Erwachsene schaden könnten, die damit ihren Lebensunterhalt verdienen.

„Ich denke, es ist irgendwie unvermeidlich, dass dies passieren würde, wenn [OpenAI’s] DALL-E hat es getan“, sagte Os Keyes, ein Doktorand an der Seattle University, Tech per E-Mail. „Aber es ist immer noch deprimierend, wie sowohl die Optionen als auch die Standardeinstellungen einen sehr heteronormativen und männlichen Blick replizieren.“

Ashley, eine Sexarbeiterin und Peer-Organisatorin, die an Fällen arbeitet, in denen es um die Moderation von Inhalten geht, ist der Meinung, dass die von Porn Pen generierten Inhalte in ihrem derzeitigen Zustand keine Bedrohung für Sexarbeiterinnen darstellen.

„Es gibt unzählige Medien da draußen“, sagte Ashley, die nicht wollte, dass ihr Nachname veröffentlicht wird, aus Angst, für ihren Job belästigt zu werden. „Aber die Menschen unterscheiden sich nicht nur dadurch, dass sie die besten Medien machen, sondern auch dadurch, dass sie eine zugängliche, interessante Person sind. Es wird noch lange dauern, bis KI das ersetzen kann.“

Auf bestehenden monetarisierbaren Pornoseiten wie OnlyFans und ManyVids müssen Ersteller von Erwachsenen ihr Alter und ihre Identität verifizieren, damit das Unternehmen weiß, dass sie einwilligende Erwachsene sind. KI-generierte Pornomodels können das natürlich nicht, weil sie nicht echt sind.

Ashley befürchtet jedoch, dass, wenn Pornoseiten gegen KI-Pornos vorgehen, dies zu strengeren Beschränkungen für Sexarbeiterinnen führen könnte, die bereits einer verstärkten Regulierung durch Gesetze wie SESTA/FOSTA ausgesetzt sind. Der Kongress führte die ein Safer-Sex-Worker-Studiengesetz im Jahr 2019, um die Auswirkungen dieser Gesetzgebung zu untersuchen, die die Online-Sexarbeit erschweren. Diese Studie ergab, dass „Gemeindeorganisationen [had] berichteten über eine zunehmende Obdachlosigkeit von Sexarbeiterinnen“, nachdem sie die „wirtschaftliche Stabilität durch den Zugang zu Online-Plattformen“ verloren hatten.

„SESTA wurde als Kampf gegen den Sexhandel mit Kindern verkauft, aber es schuf ein neues Strafgesetz über Prostitution, das nichts mit dem Alter zu tun hatte“, sagte Ashley.

Derzeit beziehen sich nur wenige Gesetze auf der ganzen Welt auf Deepfake-Pornos. In den USA haben nur Virginia und Kalifornien Vorschriften, die bestimmte Verwendungen von gefälschten und tiefgefälschten pornografischen Medien einschränken.

Systeme wie Stable Diffusion „lernen“ anhand von Beispielen, Bilder aus Text zu generieren. Gefüttert mit Milliarden von Bildern, die mit Anmerkungen versehen sind, die ihren Inhalt angeben – zum Beispiel ein Bild eines Hundes mit der Aufschrift „Dackel, Weitwinkelobjektiv“, lernen die Systeme, dass sich bestimmte Wörter und Phrasen auf bestimmte Kunststile, Ästhetiken, Orte usw. beziehen .

Das funktioniert in der Praxis relativ gut. Eine Aufforderung wie „ein Vogelgemälde im Stil von Van Gogh“ wird vorhersehbar ein Van-Gogh-artiges Bild ergeben, das einen Vogel darstellt. Kniffliger wird es aber, wenn die Prompts vager sind, auf Klischees verweisen oder sich mit Themen befassen, mit denen die Systeme nicht vertraut sind.

Zum Beispiel generiert Porn Pen manchmal Bilder ohne eine Person – vermutlich ein Fehler des Systems, die Eingabeaufforderung zu verstehen. In anderen Fällen zeigt es sich, wie bereits erwähnt, körperlich unwahrscheinlich Modelle, typischerweise mit zusätzlichen Gliedmaßen, Brustwarzen an ungewöhnlichen Stellen und verzerrtem Fleisch.

„Per Definition [these systems are] werden diejenigen repräsentieren, deren Körper in der Mainstream-Gesellschaft akzeptiert und geschätzt werden“, sagte Keyes und bemerkte, dass Porn Pen nur Kategorien für cisnormative Menschen hat. „Es überrascht mich nicht, dass Sie zum Beispiel am Ende überproportional viele Frauen haben.“

Während Stable Diffusion, eines der Systeme, die Porn Pen wahrscheinlich untermauern, hat relativ wenige „NSFW“-Bilder in seinem Trainingsdatensatz, zeigen frühe Experimente von Redditoren und 4chan-Benutzern, dass es ziemlich kompetent darin ist, pornografische Deepfakes von Prominenten zu erzeugen (Porn Pen – vielleicht nicht zufällig – hat eine „Promi“-Option). Und da es sich um Open Source handelt, würde nichts den Ersteller von Porn Pen daran hindern, das System für zusätzliche Nacktbilder zu optimieren.

„Es ist definitiv nicht großartig, es zu erzeugen [porn] einer existierenden Person“, sagte Ashley. „Es kann verwendet werden, um sie zu belästigen.“

Deepfake-Pornos werden oft erstellt, um Menschen zu bedrohen und zu belästigen. Diese Bilder werden fast immer ohne Zustimmung des Subjekts entwickelt böswillige Absicht. 2019 hat das Forschungsunternehmen Sensibilität KI fanden heraus, dass 96 % der Deepfake-Videos im Internet nicht einvernehmliche Pornos waren.

Mike Cook, ein KI-Forscher, der Teil des Kollektivs Knives and Paintbrushes ist, sagt, dass der Datensatz möglicherweise Personen enthält, die der Verwendung ihres Bildes auf diese Weise nicht zugestimmt haben, einschließlich Sexarbeiterinnen.

„Viele von [the people in the nudes in the training data] können ihr Einkommen aus der Produktion von Pornografie oder pornografischen Inhalten beziehen“, sagte Cook. „Genauso wie bildende Künstler, Musiker oder Journalisten werden die Werke dieser Menschen dazu benutzt, Systeme zu schaffen, die auch ihre zukünftige Erwerbsfähigkeit untergraben.“

Theoretisch könnte ein Pornodarsteller Urheberrechtsschutz, Verleumdung und möglicherweise sogar Menschenrechtsgesetze nutzen, um den Urheber eines Deepfake-Bildes zu bekämpfen. Aber wie ein Artikel in MIT Technology Review feststellt, sammeln Beweis zur Stützung der rechtlichen Argumentation kann sich als massive Herausforderung erweisen.

Als primitivere KI-Tools vor einigen Jahren Deepfake-Pornos populär machten, war ein Wired Ermittlung fanden heraus, dass nicht einvernehmliche Deepfake-Videos Millionen von Aufrufen auf Mainstream-Pornoseiten wie Pornhub erzielten. Andere Deepfake-Werke fanden ein Zuhause auf Seiten, die Porn Pen ähneln – laut Sensity-Daten erhielten die vier besten Deepfake-Pornoseiten im Jahr 2018 mehr als 134 Millionen Aufrufe.

„KI-Bildsynthese ist heute eine weit verbreitete und zugängliche Technologie, und ich glaube nicht, dass irgendjemand wirklich auf die Auswirkungen dieser Allgegenwart vorbereitet ist“, fuhr Cook fort. „Meiner Meinung nach sind wir in den letzten Jahren sehr, sehr weit ins Unbekannte vorgedrungen, ohne Rücksicht auf die Auswirkungen dieser Technologie.“

Um Cooks Punkt zu sagen, einer der meisten Beliebt Websites für KI-generierte Pornos wurden Ende letzten Jahres durch Partnervereinbarungen, Empfehlungen und eine API erweitert, sodass der Dienst – der Hunderte von nicht einvernehmlichen Deepfakes hostet – Verbote seiner Zahlungsinfrastruktur überleben kann. Und im Jahr 2020 Forscher entdeckt ein Telegram-Bot, der missbräuchliche Deepfake-Bilder von mehr als 100.000 Frauen, einschließlich minderjähriger Mädchen, generierte.

„Ich denke, wir werden in den kommenden zehn Jahren viel mehr Menschen sehen, die die Grenzen sowohl der Technologie als auch der Gesellschaft austesten“, sagte Cook. „Wir müssen eine gewisse Verantwortung dafür übernehmen und daran arbeiten, die Menschen über die Auswirkungen ihres Handelns aufzuklären.“

tch-1-tech