OpenAI, la société derrière ChatGPT, est étudier permettant à ses utilisateurs de générer de la pornographie et d’autres contenus explicites via son outils de intelligence artificielle (IA).
La société, dirigée par Sam Altman et soutenue financièrement par Microsoft, a présenté mercredi un document détaillé qui établit le comportement de ses modèles. Dans ce document, la porte est ouverte à la révision de son interdiction actuelle, qui rend impossible la génération d’images ou de vidéos érotiques.
« Nous étudions si nous pouvons offrir de manière responsable la possibilité de générer du contenu NSFW dans des contextes adaptés à l’âge », indique le document dans un commentaire. L’acronyme NSFW (« pas sûr pour le travail ») fait référence à érotisme, grossièretés et gore extrême (violence graphique).
A titre d’exemple, OpenAI indique que ChatGPT « devrait rester utile dans des contextes scientifiques et créatifs qui sont considérés comme sûrs pour le travail », comme « discuter de sexe et d’organes reproducteurs dans un contexte scientifique ou médical ».
« Nous voulons nous assurer que les gens ont un contrôle maximum tant qu’ils ne violent pas la loi ou les droits d’autrui, mais autoriser les deepfakes (vidéos manipulées) est hors de question, point final », a expliqué Joanne Jang d’OpenAI, dans des déclarations à la station de radio NPR. Jang a assuré que l’entreprise « n’essaie pas de créer du porno avec l’IA »bien qu’il ait ajouté que « cela dépend de votre définition du porno ».
Risques liés à l’IA
Au-delà de ces promesses de « responsabilité », la mesure inquiète les experts. En mars dernier, un ingénieur logiciel de Microsoft a publiquement affirmé que Copilot Designer, le générateur d’images de l’entreprise alimenté par la technologie OpenAI, créait des images violentes et sexuelles « nuisibles ».
La restriction actuelle est due aux risques liés au lien entre l’IA et les contenus à caractère sexuel. Ces derniers mois, la multiplication des applications permettant de générer faux nus d’autres personnes a fait monter en flèche le nombre de victimes de ce crime, qu’il s’agisse de célébrités comme la chanteuse Taylor Swift ou de mineurs de moins de 14 ans. En septembre dernier, sans aller plus loin, une vingtaine de mères de Badajoz ont dénoncé leurs filles avaient été exposées par des camarades de classequi avait manipulé des photos d’eux pour les déshabiller et les publier sur les réseaux sociaux pour les humilier.
Il existe d’autres controverses. Depuis des années, les principaux sites pornographiques contiennent deepfakes de célébrités pour simuler des scènes sexuelles. Tout cela bien entendu sans le consentement des victimes, dont l’image est exploitée pour satisfaire les fantasmes de tiers.
Les risques liés à l’utilisation de l’IA pour générer du contenu à caractère sexuel vont encore plus loin. En décembre dernier, une recherche menée par l’Observatoire Internet de l’Université de Stanford a révélé que des applications d’IA populaires telles que le générateur d’images à diffusion stable ont été entraînées à l’aide d’une base de données remplie de données. contenu des abus sexuels sur mineurs. Les experts ont averti que cela pourrait contribuer à reproduire davantage de faux contenus de ce qu’on appelle la pédopornographie.