Wir haben kürzlich entdeckt, dass Lensa AI dazu verleitet werden kann, NSFW-Bilder zu erstellen. Als Tech das Prisma-Team auf seine Ergebnisse aufmerksam machte, antwortete der CEO des Unternehmens mit seinen Ergebnissen.
Andrey Usoltsev, CEO und Mitbegründer von Prisma Lab, sagte uns, dass das Verhalten, das wir in unserem Artikel beobachtet haben, nur auftreten kann, wenn die KI absichtlich dazu provoziert wird, NSFW-Inhalte zu erstellen, und weist darauf hin, dass dies einen Verstoß gegen die Nutzungsbedingungen darstellt.
„Unser Nutzungsbedingungen (Ziffer 6) und Stabilität AI-Nutzungsbedingungen (Richtlinien für Eingabeaufforderungen) verbieten ausdrücklich die Verwendung des Tools für schädliches oder belästigendes Verhalten. Der Weg [TechCrunch’s] experiment war strukturiert weist darauf hin, dass solche Kreationen nicht zufällig entstehen können. Die Bilder sind das Ergebnis von absichtlichem Fehlverhalten in der App“, sagte Usoltsev in einem E-Mail-Interview mit Tech. „Die Generierung und breite Nutzung solcher Inhalte kann rechtliche Schritte nach sich ziehen, da sowohl die USA als auch das Vereinigte Königreich das Teilen von expliziten Inhalten und Bildern, die ohne Zustimmung erstellt wurden, als Verbrechen betrachten. Wir stellen Richtlinien zur Verfügung, die unsere Bildanforderungen klar festlegen, und die Verwendung expliziter Darstellungen ist strengstens untersagt. Wir erwarten, dass die Nutzer der App die Richtlinien befolgen, um die bestmöglichen Ergebnisse zu erzielen.“
Usoltsev teilte auch einen zusätzlichen Kontext mit, warum Lensa NSFW-Bilder generierte, und erklärte, dass dies ein Ergebnis der zugrunde liegenden Technologie Stability AI ist, die tut, was ihr gesagt wird, aber nur in einer Sandbox-Umgebung.
„Stable Diffusion Neural Network läuft hinter dem Avatar-Generierungsprozess“, sagt Usoltsev. „Stability AI, die Ersteller des Modells, haben es mit einer beträchtlichen Menge ungefilterter Daten aus dem Internet trainiert. Weder wir noch Stability AI könnten bewusst Darstellungsverzerrungen anwenden; Genauer gesagt, die von Menschenhand geschaffenen ungefilterten Daten, die online bezogen wurden, führten das Modell in die bestehenden Vorurteile der Menschheit ein. Die Schöpfer erkennen die Möglichkeit gesellschaftlicher Vorurteile an. Wir auch.“
Das Stability AI-Modell enthält Anpassungen der Stable Diffusion-Modellsoftware, um es den Benutzern seit Ende November 2022 zu erschweren, nackte und pornografische Bilder zu erstellen, und der Gründer von Prisma AI versichert mir, dass diese Anpassungen von versierten Benutzern ausmanövriert werden können.
Wir sind dabei, den NSFW-Filter zu bauen. Alle als solche erkannten Bilder werden effektiv unkenntlich gemacht. Andrey Usoltsev, CEO von Prisma Lab
„Wir geben an, dass das Produkt nicht für Minderjährige bestimmt ist, und warnen die Benutzer vor dem möglichen Inhalt. Wir verzichten auch darauf, solche Bilder in unseren Werbematerialien zu verwenden“, sagte uns Usoltsev. „Um die Arbeit von Lensa zu verbessern, bauen wir gerade den NSFW-Filter. Alle als solche erkannten Bilder werden effektiv unkenntlich gemacht. Es liegt im alleinigen Ermessen des Benutzers, solche Bilder zu öffnen oder zu speichern.“
Das Team von Prisma Labs weist darauf hin, dass es hier zwei Probleme gibt; Durch das Hochladen expliziter Bilder trainieren die Benutzer eine bestimmte und individuelle Kopie des Modells, die nach Angaben des Unternehmens gelöscht wird, sobald die Generierung abgeschlossen ist, und dass diese Bilder nicht zum weiteren Trainieren des Modells verwendet werden können. Mit anderen Worten: Wenn du Pornos hochlädst, um mehr Pornos zu machen, liegt das irgendwie an dir.
„Es besteht kein Zweifel, dass in naher Zukunft ein breiteres Gespräch über den Einsatz von KI und Vorschriften stattfinden muss, und wir sind sehr daran interessiert, ein Teil davon zu sein. Wir bieten auch alle notwendigen Anleitungen und entsprechenden Warnungen, um das beste Erlebnis der Magic Avatars-Funktion zu ermöglichen“, sagt Usoltsev. „Aber wenn eine Person entschlossen ist, sich an schädlichem Verhalten zu beteiligen, hätte jedes Werkzeug das Potenzial, zu einer Waffe zu werden.“
Das Unternehmen teilte nicht mit, ob es Pläne hat, die Erstellung sogenannter „Deepfake“-Nacktbilder zu vermeiden.
In der Zwischenzeit kann ich mich an einvernehmlich erstellten Fotos von mir erfreuen, auf denen ich auf keinem Foto besser aussehe als je zuvor, und andere ermutigen, ihre Zustimmung einzuholen, bevor sie Pornos von anderen erstellen.