Images manipulées avec des outils d’intelligence artificielle (IA) du chanteur Taylor Swift s’est répandu massivement sur X la semaine dernière, ce qui a amené le réseau social et d’autres du même genre à bloquer les recherches associées.
Vendredi, le réseau social X était rempli d’images manipulées de la chanteuse dans lesquelles des outils d’IA avaient été utilisés pour la faire apparaître nue. C’est une pratique connue sous le nom de ‘faux profond‘, ce qui a la capacité de mettre en doute l’authenticité des images ou des vidéos dans lesquelles il est appliqué, compte tenu de leur réalisme.
Cette diffusion massive s’est faite à l’insu ou sans le consentement de Taylor Switfet remonte à un forum sur la plateforme de messagerie Telegram, où les utilisateurs d’une communauté partagent des images manipulées avec des outils comme Microsoft Designer pour déshabiller les femmes, comme le rapporte 404 Media.
Les recherches liées aux « deepfakes » du chanteur américain sont devenues une tendance sur X, où la plateforme a confirmé vendredi que ses équipes étaient «« supprimer activement » toutes les images qui a identifié et pris des mesures contre les comptes qui les avaient publiés.
Avant de commencer à les supprimer, l’une des publications a atteint 45 millions de vues et 24 000 reposts, et a même enregistré des centaines de milliers de likes et de favoris, selon The Verge.
En plus, Cependant, comme ils le soulignent dans The Verge, ce blocage n’est pas totalement efficace, car peut être tiré au sort en modifiant l’ordre de certains mots, par exemple « Taylor IA Swift ».
Selon l’analyste des médias sociaux Matt Navarra, cette mesure a également été adoptée par Meta pour ses réseaux sociaux Threads et Instagram.
« Deepfakes » pornographiques
Le « deepfake » affecte principalement le femmes. Selon l’étude 2023 de la société de solutions de sécurité Home Security Heroes, la manipulation de contenus audiovisuels mettant en vedette des femmes représente 77 pour cent des contenus présents sur les sites et chaînes spécialisés YouTube, Vimeo et Dailymotion, un chiffre qui s’élève à 99 pour cent. cas de « deepfake » pornographique.
Le personnalités publiquesDe plus, ils sont plus susceptibles d’être victimes de ce type de manipulation, compte tenu de la visibilité dont ils disposent auprès du public et du nombre d’images disponibles d’eux. Par profession, ce sont les chanteuses (58%) et les actrices (33%) qui sont les protagonistes du plus de « deepfakes ».
La manipulation d’images avec des outils d’intelligence artificielle n’est pas nouvelle, et le rapport situe en effet l’évolution en 2014, avec l’apparition des réseaux contradictoires génératifs (GAN), qui peuvent être utilisés pour générer des images de synthèse avec un grand réalisme.
Les progrès de cette technologie ces dernières années lui ont permis d’étendre ses capacités, et même de l’introduire dans des services plus abordables et plus faciles à utiliser, ce qui a élargi son utilisation parmi les utilisateurs qui n’ont pas besoin de connaissances spécialisées pour les utiliser.
En 2017, par exemple, l’existence de une campagne qui diffuse des vidéos pornographique censé mettre en vedette des personnalités publiquesgénéralement de femmes, qui se sont révélées fausses : les visages avaient été manipulés pour montrer celui d’actrices et de chanteuses comme Gal Gadot, Taylor Swift ou Scarlett Johansson, sans leur consentement.
Plus récemment, et en ce qui concerne la facilité d’accès à cette technologie, nous pouvons citer le cas des faux nus de filles et d’adolescentes mineures qui se sont réunies en septembre de l’année dernière à Almendralejo (Estrémadure), qui avaient été réalisés et partagés par plusieurs mineurs locaux. garçons.
Le « deepfake » brouille les frontières entre réalité et fiction en se transformant avec grand réalisme de l’apparence et de la voix des gensqui soulève des questions sur la véracité de ce qui est vu, avec la capacité de nuire à l’image de ceux qu’il incarne.