Die Gruppe, die versucht, die AI-Porno-Generation Unstable Diffusion zu monetarisieren, hat mehr als gesammelt 56.000 $ auf Kickstarter von 867 Unterstützern. Jetzt als Kickstarter ändert sein Denken In Bezug darauf, welche Art von KI-basierten Projekten sie zulassen wird, hat die Crowdfunding-Plattform die Kampagne von Unstable Diffusion eingestellt. Da Kickstarter ein Alles-oder-Nichts-Modell betreibt und die Kampagne noch nicht abgeschlossen war, werden alle von Unstable Diffusion gesammelten Gelder an die Geldgeber zurückgezahlt. Mit anderen Worten, Unstable Diffusion wird diese 56.000 $ nicht sehen, was sein ursprüngliches Ziel von 25.000 $ mehr als verdoppelt hat.
„In den letzten Tagen haben wir unseren Community Advisory Council engagiert und wir haben Ihr Feedback an uns über unser Team und die sozialen Medien gelesen“, sagte CEO Everette Taylor in a Blogeintrag. „Und eines ist klar: Kickstarter muss und wird immer auf der Seite der kreativen Arbeit und der Menschen dahinter stehen. Wir sind hier, um kreativen Arbeiten zum Erfolg zu verhelfen.“
Der neue Ansatz von Kickstarter zum Hosten von KI-Projekten ist absichtlich vage.
„Diese Technologie ist wirklich neu und wir haben nicht alle Antworten“, schrieb Taylor. „Die Entscheidungen, die wir jetzt treffen, sind möglicherweise nicht die, die wir in Zukunft treffen, deshalb möchten wir, dass dies ein fortlaufendes Gespräch mit Ihnen allen ist.“
Derzeit sagt die Plattform, dass sie erwägt, wie Projekte mit urheberrechtlich geschütztem Material interagieren, insbesondere wenn die Arbeit von Künstlern ohne Zustimmung in den Trainingsdaten eines Algorithmus erscheint. Kickstarter wird auch prüfen, ob das Projekt „eine bestimmte Community ausbeuten oder jemandem Schaden zufügen wird“.
In den letzten Monaten haben Tools wie ChatGPT von OpenAI und Stable Diffusion von Stability AI großen Erfolg gehabt und Gespräche über die Ethik von KI-Kunstwerken in den Vordergrund der öffentlichen Debatte gerückt. Wenn Apps wie Lensa AI die Open Source Stable Diffusion nutzen können, um sofort künstlerische Avatare zu erstellen, die wie die Arbeit eines professionellen Künstlers aussehen, wie wirkt sich das auf dieselben arbeitenden Künstler aus?
Einige Künstler nutzten Twitter, um Kickstarter unter Druck zu setzen, das Unstable Diffusion-Projekt fallen zu lassen, und äußerten Bedenken darüber, wie KI-Kunstgeneratoren die Karrieren von Künstlern gefährden könnten.
Viele zitieren das Schicksal von Greg Rutkowskis Arbeit als Beispiel dafür, was schief gehen kann. Als lebender Illustrator, der detaillierte High-Fantasy-Kunstwerke für Franchise-Unternehmen wie „Dungeons & Dragons“ geschaffen hat, war Rutkowskis Name einer der beliebtesten Suchbegriffe von Stable Diffusion, als es im September auf den Markt kam, sodass Benutzer seinen unverwechselbaren Stil leicht nachahmen konnten. Rutkowski hat nie zugestimmt, dass seine Kunstwerke zum Trainieren des Algorithmus verwendet werden, was ihn dazu veranlasste, sich lautstark dafür einzusetzen, wie sich KI-Kunstgeneratoren auf arbeitende Künstler auswirken.
„Mit einer Finanzierung von 25.000 US-Dollar können wir es uns leisten, das neue Modell mit 75 Millionen hochwertigen Bildern zu trainieren, die aus etwa 25 Millionen Anime- und Cosplay-Bildern, etwa 25 Millionen künstlerischen Bildern von Artstation/DeviantArt/Behance und etwa 25 Millionen Fotos bestehen.“ Unstable Diffusion schrieb in seinem Kickstarter.
Laicheneine Reihe von KI-Tools zur Unterstützung von Künstlern, entwickelte eine Website namens Bin ich ausgebildet worden, mit dem Künstler sehen können, ob ihre Arbeit in beliebten Datensätzen erscheint, und sich abmelden können. Laut einem Gerichtsverfahren im April gibt es einen Präzedenzfall, um das Scraping öffentlich zugänglicher Daten zu verteidigen.
Inhärente Probleme bei der Generierung von KI-Pornos
Ethische Fragen zu KI-Kunstwerken werden noch düsterer, wenn man an Projekte wie Unstable Diffusion denkt, die sich auf die Entwicklung von NSFW-Inhalten konzentrieren.
Stable Diffusion verwendet einen Datensatz von 2,3 Milliarden Bildern, um seinen Text-zu-Bild-Generator zu trainieren. Aber nur geschätzte 2,9 % des Datensatzes enthält NSFW-Material, das dem Modell in Bezug auf explizite Inhalte wenig zu bieten hat. Hier kommt Unstable Diffusion ins Spiel. Das Projekt, das Teil von Equilibrium AI ist, rekrutierte Freiwillige von seinem Discord-Server, um robustere Porno-Datensätze zu entwickeln, um ihren Algorithmus zu verfeinern, genauso wie Sie mehr Bilder von Sofas und Stühlen auf a hochladen würden Datensatz, wenn Sie eine Möbelgeneration KI machen wollten.
Aber jeder KI-Generator neigt dazu, den Vorurteilen der Menschen hinter dem Algorithmus zum Opfer zu fallen. Ein Großteil der kostenlosen und leicht zugänglichen Pornos wurde für den männlichen Blick entwickelt, was bedeutet, dass die KI dies wahrscheinlich ausspucken wird, insbesondere wenn es sich um die Art von Bildern handelt, die Benutzer in den Datensatz eingeben.
In seinem jetzt ausgesetzten Kickstarter sagte Unstable Diffusion, dass es darauf hinarbeiten würde, ein KI-Kunstmodell zu entwickeln, das „die menschliche Anatomie besser handhaben, in vielfältigen und kontrollierbaren künstlerischen Stilen erzeugen, untertrainierte Konzepte wie LGBTQ und Rassen und Geschlechter gerechter darstellen kann. ”
Außerdem gibt es keine Möglichkeit zu überprüfen, ob ein Großteil der im Internet frei verfügbaren Pornos einvernehmlich erstellt wurde (allerdings müssen erwachsene Ersteller, die kostenpflichtige Plattformen wie OnlyFans und ManyVids verwenden, ihr Alter und ihre Identität überprüfen, bevor sie diese Dienste nutzen). Selbst wenn ein Model zustimmt, in Pornos aufzutreten, bedeutet das nicht, dass es damit einverstanden ist, dass seine Bilder verwendet werden, um eine KI zu trainieren. Während diese Technologie erstaunlich realistische Bilder erzeugen kann, bedeutet das auch, dass sie bewaffnet werden kann, um nicht einvernehmliche Deepfake-Pornografie zu erstellen.
Derzeit beziehen sich nur wenige Gesetze auf der ganzen Welt auf nicht einvernehmliche Deepfake-Pornos. In den USA haben nur Virginia und Kalifornien Vorschriften, die bestimmte Verwendungen von gefälschten und tiefgefälschten pornografischen Medien einschränken.
„Ein Aspekt, über den ich mir besonders Sorgen mache, sind die unterschiedlichen Auswirkungen von KI-generierten Pornos auf Frauen“, sagte Ravit Dotan, Vizepräsident der verantwortlichen KI bei Mission Control, letzten Monat gegenüber Tech. „Zum Beispiel funktioniert eine frühere KI-basierte App, die Menschen ‚ausziehen‘ kann, nur bei Frauen.“
Unstable Diffusion hat zum Zeitpunkt der Veröffentlichung nicht auf die Bitte um Stellungnahme geantwortet.