Unzensiertes KI-Kunstmodell wirft ethische Fragen auf – Tech

Unzensiertes KI Kunstmodell wirft ethische Fragen auf – Tech

EIN Neuer Open-Source-KI-Bildgenerator in der Lage, realistische Bilder aus jeder Texteingabe zu erstellen, wurde in der ersten Woche erstaunlich schnell angenommen. Stable Diffusion von Stability AI, High-Fidelity, aber in der Lage, auf handelsüblicher Consumer-Hardware ausgeführt zu werden, wird jetzt von Kunstgeneratordiensten wie Artbreeder, Pixelz.ai und anderen verwendet. Aber die ungefilterte Natur des Modells bedeutet, dass nicht die gesamte Nutzung völlig korrekt war.

Zum größten Teil waren die Anwendungsfälle über Bord. Beispielsweise hat NovelAI mit Stable Diffusion experimentiert, um Kunst zu produzieren, die die von KI generierten Geschichten begleiten kann, die von Benutzern auf seiner Plattform erstellt wurden. Midjourney hat eine Beta-Version gestartet, die Stable Diffusion für mehr Fotorealismus nutzt.

Aber Stable Diffusion wurde auch für weniger wohlschmeckende Zwecke verwendet. Auf dem berüchtigten Diskussionsforum 4chan, wo das Modell früh durchgesickert ist, widmen sich mehrere Threads der KI-generierten Kunst nackter Prominenter und anderen Formen generierter Pornografie.

Emad Mostaque, der CEO von Stability AI, nannte es „bedauerlich“, dass das Modell auf 4chan durchgesickert sei, und betonte, dass das Unternehmen mit „führenden Ethikern und Technologien“ an Sicherheit und anderen Mechanismen rund um eine verantwortungsvolle Freigabe arbeite. Einer dieser Mechanismen ist ein einstellbares KI-Tool, Safety Classifier, das im gesamten Stable Diffusion-Softwarepaket enthalten ist und versucht, anstößige oder unerwünschte Bilder zu erkennen und zu blockieren.

Der Sicherheitsklassifikator kann jedoch – standardmäßig aktiviert – deaktiviert werden.

Stable Diffusion ist absolutes Neuland. Andere KI-Kunsterzeugungssysteme, wie DALL-E 2 von OpenAI, haben strenge Filter für pornografisches Material implementiert. (Das Lizenz für die Open Source Stable Diffusion verbietet bestimmte Anwendungen, wie die Ausbeutung von Minderjährigen, aber das Modell selbst ist auf technischer Ebene nicht eingeschränkt.) Darüber hinaus haben viele im Gegensatz zu Stable Diffusion nicht die Fähigkeit, Kunst von Persönlichkeiten des öffentlichen Lebens zu schaffen. Diese beiden Fähigkeiten könnten in Kombination riskant sein und es schlechten Schauspielern ermöglichen, pornografische „Deepfakes“ zu erstellen, die – im schlimmsten Fall – den Missbrauch fortsetzen oder jemanden in ein Verbrechen verwickeln könnten, das sie nicht begangen haben.

Ein Deepfake von Emma Watson, erstellt von Stable Diffusion und veröffentlicht auf 4chan.

Leider sind Frauen mit Abstand am ehesten die Opfer davon. Eine Studie aus dem Jahr 2019 ergab, dass von den 90 % bis 95 % der Deepfakes, die nicht einvernehmlich sind, etwa 90 % von Frauen stammen. Laut Ravit Dotan, einem KI-Ethiker an der University of California, Berkeley, verheißt das nichts Gutes für die Zukunft dieser KI-Systeme.

„Ich mache mir Sorgen über andere Auswirkungen von synthetischen Bildern illegaler Inhalte – dass sie die dargestellten illegalen Verhaltensweisen verschlimmern werden“, sagte Dotan per E-Mail gegenüber Tech. „ZB wird synthetisches Kind [exploitation] Erhöhen Sie die Schaffung eines authentischen Kindes [exploitation]? Wird es die Zahl der Angriffe von Pädophilen erhöhen?“

Der leitende Forscher des Montreal AI Ethics Institute, Abhishek Gupta, teilt diese Ansicht. „Wir müssen wirklich über den Lebenszyklus des KI-Systems nachdenken, der die Nutzung und Überwachung nach der Bereitstellung umfasst, und darüber nachdenken, wie wir uns Kontrollen vorstellen können, die Schäden selbst in Worst-Case-Szenarien minimieren können“, sagte er. „Dies gilt insbesondere, wenn eine leistungsstarke Fähigkeit [like Stable Diffusion] in die Wildnis gerät, was bei denen, gegen die ein solches System eingesetzt werden könnte, ein echtes Trauma verursachen kann, zum Beispiel durch die Erstellung anstößiger Inhalte mit dem Abbild des Opfers.“

So etwas wie ein Vorschau hat sich im vergangenen Jahr abgespielt, als ein Vater auf Anraten einer Krankenschwester Fotos vom geschwollenen Genitalbereich seines kleinen Kindes machte und sie per SMS an das iPhone der Krankenschwester schickte. Das Foto wurde automatisch in Google Fotos gesichert und von den KI-Filtern des Unternehmens als Material für sexuellen Missbrauch von Kindern gekennzeichnet, was dazu führte, dass das Konto des Mannes deaktiviert und eine Untersuchung durch die San Francisco Police Department eingeleitet wurde.

Wenn ein legitimes Foto ein solches Erkennungssystem auslösen könnte, gibt es laut Experten wie Dotan keinen Grund, warum Deepfakes, die von einem System wie Stable Diffusion generiert werden, dies nicht könnten – und das in großem Maßstab.

„Die KI-Systeme, die Menschen erstellen, können selbst mit den besten Absichten auf schädliche Weise verwendet werden, die sie nicht vorhersehen und nicht verhindern können“, sagte Dotan. „Ich denke, dass Entwickler und Forscher diesen Punkt oft unterschätzt haben.“

Natürlich gibt es die Technologie zum Erstellen von Deepfakes schon seit einiger Zeit, ob mit oder ohne KI-Unterstützung. Ein 2020 Bericht von der Deepfake-Erkennungsfirma Sensity fand heraus, dass jeden Monat Hunderte von expliziten Deepfake-Videos mit weiblichen Prominenten auf die weltweit größten Pornografie-Websites hochgeladen wurden; Der Bericht schätzte die Gesamtzahl der Deepfakes im Internet auf rund 49.000, von denen über 95 % Pornos waren. Schauspielerinnen wie Emma Watson, Natalie Portman, Billie Eilish und Taylor Swift sind das Ziel von Deepfakes, seit KI-gestützte Gesichtstausch-Tools vor einigen Jahren den Mainstream erreichten, und einige, darunter Kristen Bell, haben sich gegen das ausgesprochen, was sie sehen sexuelle Ausbeutung.

Stable Diffusion stellt jedoch eine neuere Generation von Systemen dar, die unglaublich – wenn nicht perfekt – überzeugende gefälschte Bilder mit minimalem Aufwand für den Benutzer erstellen können. Es ist auch einfach zu installieren und erfordert nicht mehr als ein paar Setup-Dateien und eine Grafikkarte, die im High-End-Bereich mehrere hundert Dollar kostet. Es wird an noch effizienteren Versionen des Systems gearbeitet, die auf einem M1 MacBook laufen können.

Stabile Diffusion

Ein Deepfake von Kylie Kardashian, der auf 4chan gepostet wurde.

Sebastian Berns, ein Ph.D. Forscher in der KI-Gruppe an der Queen Mary University of London, glaubt, dass die Automatisierung und die Möglichkeit, die kundenspezifische Bilderzeugung zu skalieren, die großen Unterschiede zu Systemen wie Stable Diffusion sind – und die Hauptprobleme. „Die meisten schädlichen Bilder können bereits mit herkömmlichen Methoden hergestellt werden, sind jedoch manuell und erfordern viel Aufwand“, sagte er. „Ein Modell, das nahezu fotorealistisches Filmmaterial produzieren kann, könnte zu personalisierten Erpressungsangriffen auf Einzelpersonen führen.“

Berns befürchtet, dass aus sozialen Medien geschabte persönliche Fotos verwendet werden könnten, um Stable Diffusion oder ein ähnliches Modell zu konditionieren, um gezielte pornografische Bilder oder Bilder zu erzeugen, die illegale Handlungen darstellen. Es gibt sicherlich Präzedenzfälle. Nachdem die indische Investigativjournalistin Rana Ayyub 2018 über die Vergewaltigung eines achtjährigen Mädchens aus Kaschmir berichtet hatte wurde das Ziel indischer nationalistischer Trolle, von denen einige Deepfake-Pornos mit ihrem Gesicht auf dem Körper einer anderen Person erstellten. Der Deepfake wurde vom Vorsitzenden der nationalistischen politischen Partei BJP geteilt, und die Belästigung, die Ayyub dadurch erhielt, wurde so schlimm, dass die Vereinten Nationen eingreifen mussten.

„Stable Diffusion bietet genügend Anpassungsmöglichkeiten, um automatisierte Drohungen gegen Einzelpersonen auszusenden, entweder zu zahlen oder zu riskieren, dass gefälschtes, aber potenziell schädliches Filmmaterial veröffentlicht wird“, fuhr Berns fort. „Wir sehen bereits, dass Menschen erpresst werden, nachdem aus der Ferne auf ihre Webcam zugegriffen wurde. Dieser Infiltrationsschritt ist möglicherweise nicht mehr erforderlich.“

Da Stable Diffusion in freier Wildbahn ist und bereits zur Erzeugung von Pornografie verwendet wird – einige davon ohne Zustimmung – könnte es für Bildhoster erforderlich werden, Maßnahmen zu ergreifen. Tech wandte sich an OnlyFans, eine der größten Plattformen für Inhalte für Erwachsene, erhielt jedoch zum Zeitpunkt der Veröffentlichung keine Antwort. Ein Sprecher von Patreon, das auch Inhalte für Erwachsene zulässt, stellte fest, dass das Unternehmen eine Richtlinie gegen Deepfakes hat und Bilder verbietet, die „das Abbild von Prominenten wiederverwenden und nicht jugendfreie Inhalte in einen nicht jugendfreien Kontext stellen“.

Wenn die Geschichte jedoch ein Hinweis ist, Durchsetzung wird wahrscheinlich uneinheitlich sein – zum Teil, weil nur wenige Gesetze speziell gegen Deepfaking in Bezug auf Pornografie schützen. Und selbst wenn die Androhung rechtlicher Schritte einige Websites, die sich mit anstößigen KI-generierten Inhalten befassen, unter Druck setzt, hindert nichts daran, dass neue auftauchen.

Mit anderen Worten, sagt Gupta, es ist eine schöne neue Welt.

„Kreative und böswillige Benutzer können die Funktionen missbrauchen [of Stable Diffusion] um subjektiv anstößige Inhalte in großem Maßstab zu generieren, mit minimalen Ressourcen, um Inferenzen auszuführen – was billiger ist, als das gesamte Modell zu trainieren – und sie dann an Orten wie Reddit und 4chan zu veröffentlichen, um den Verkehr zu steigern und die Aufmerksamkeit zu hacken“, sagte Gupta. „Es steht viel auf dem Spiel, wenn solche Fähigkeiten „in die Wildnis“ entkommen, wo Kontrollen wie API-Ratenbegrenzungen, Sicherheitskontrollen für die Art der vom System zurückgegebenen Ausgaben nicht mehr anwendbar sind.“

tch-1-tech