les faux nus créés par l’intelligence artificielle montent en flèche

les faux nus crees par lintelligence artificielle montent en fleche

En juin 2019, le média américain Vice dénoncé l’existence de Nu profondune application « horrible » qui pourrait bande à n’importe quel Femme. L’utilisateur n’avait qu’à poster une photo du victimepayez 50 dollars et attendez le intelligence artificielle (AI) du programme était chargé de lui retirer ses vêtements. Les résultats étaient si crédibles que son utilisation s’est envolée, mais l’avalanche de critiques a contraint ses créateurs à fermer le projet au bout de quelques heures.

Quatre ans plus tard, le problème est bien plus grave. DeepNude a disparu, mais des dizaines d’autres ont émergé à sa placeapplications‘ Similaire. L’un d’entre eux est celui qu’un groupe d’enfants de Badajoz a utilisé pour déshabiller leurs camarades mineurs sans leur consentement. « L’image est super réaliste et, en plus d’être devenue virale parmi eux, ils ont peut-être été téléchargés sur des sites de type ‘Onlyfans' », a expliqué Miriam Al Adib, mère d’une des victimes, à EL PERIÓDICO, du groupe Prensa Ibérica. .

Bien que ce cas ait déjà été signalé à la Police Nationale, il illustre une nouvelle méthode de violence numérique contre les femmes est de plus en plus populaire. Un simple coup d’œil sur Google Trends suffit pour constater à quel point les recherches pour ces applications ont explosé au cours de l’année dernière. « C’est un phénomène qui commence à inquiéter beaucoup car il n’existe aucun type de réglementation à ce sujet et il est très difficile à la fois de quantifier l’utilisation des images qui circulent et d’identifier ceux qui le font », explique Eva Cruells, coordinatrice du ligne d’attention de Femblocune initiative féministe contre les violences sexistes numériques.

Des filles aux célébrités Les « deepfakes » pornographiques de célébrités, de dirigeants politiques et de militants prolifèrent

Initialement, ce type de contenu manipulé – connu sous le nom de ‘contrefaçons profondes« – ils ciblaient principalement des femmes célèbres. Les visages de Gal Gadot, Jennifer Lawrence soit Scarlett Johansson Ils ont été découpés et intégrés dans des scènes pornographiques qui ont ensuite été publiées sur des pages réservées aux adultes. En janvier 2021, plus de 82 000 de ces vidéos illicites avaient été détectées, selon un comptage de la société Sensity. Même s’il est très difficile de les compter, les chiffres actuels seraient bien plus élevés.

Ce boom est dû à la normalisation de la IA, en pleine expansion. C’est dans ce contexte qu’ont fleuri une multitude d’« applications » qui tentent de s’implanter au détriment du déshabillage des filles sans consentement. Son utilisation devient plus simple et ses résultats plus crédibles. Cette somme de facteurs a facilité la tâche technologie peut être utilisé de manière problématique par tous types de publics.

« Le message est que n’importe quelle fille peut être exposée, c’est une déclaration très claire sur la sexualité de nombreux adolescents. »

Eva Cruells – Coordinatrice de la hotline Fembloc

Des personnalités publiques, telles que Rosalie ou « l’influenceur » Laura Escanés, continuent d’être la cible de ces attaques. Cependant, la facilité d’accès à ces programmes étend leur impact à tous les types de femmes, y compris les filles, comme le montre le cas de Badajoz. « Le message est que n’importe quelle fille peut être exposée, c’est une déclaration très claire sur la sexualité de nombreux adolescents« , ajoute Cruells.

Anxiété et faible estime de soi

Cette forme de violence numérique de genre peut toucher santé mentale des victimes. 54% des femmes qui ont souffert harcèlement sur Internet ont connu des crises de panique, d’anxiété ou de stress, tandis que 42 % des jeunes femmes ont montré un stress émotionnel, une faible estime d’elles-mêmes et une perte de confiance en elles, selon une étude. étude de l’Observatoire national de la technologie et de la société (ONTSI) l’année dernière. « C’est ça de se sentir violé, c’est ça de se sentir exploité », a dénoncé en janvier le streamer QTCinderella, victime de deepfakes.

Aller chercher de l’influence manquer de respect et sexualiser quelqu’un est un type de violence et dégoûtant mais le faire pour 4 pièces de + ce que ça donne c’est une honte

– ROSAL Í A (@rosalia) 23 mai 2023

Soyez vigilant avec les photos que vous téléchargez : les « deepfakes » réalisés avec l’IA que Laura Escanes dénonce inondent les réseaux sociaux

Bien qu’il s’agisse d’une simulation, la distribution de contenus sexuels de cette nature est un crime. Cela pourrait même être pornographie juvénile si cela concerne un mineur. C’est pourquoi Fembloc assure que le reporting public est une bonne pratique pour exposer l’impact qu’il a et pour « faire appel au bon sens ». « Nous devons sensibiliser beaucoup (…) et générer une communauté qui rejette ce type d’agression », ajoute Cruells.

Recréer de fausses images sexuelles est illégal, mais il reste très facile de trouver ce type de contenu sur l’Internet. Une recherche rapide sur Google fait apparaître toutes sortes de liens, depuis ceux recommandant les meilleures « applications » d’IA pour créer des nus jusqu’aux portails où ils sont publiés.



fr-03