Comment repérer les deepfakes d’IA qui propagent des informations erronées sur les élections

Les systèmes d’IA générative, tels que ChatGPT, sont formés sur de grands ensembles de données pour créer du contenu écrit, visuel ou audio en réponse à des invites. Lorsqu’ils sont alimentés en images réelles, certains algorithmes peuvent produire de fausses photos et vidéos appelées deepfakes.

Le contenu créé avec des systèmes d’intelligence artificielle (IA) générative joue un rôle dans l’élection présidentielle de 2024. Bien que ces outils puissent être utilisés sans danger, ils permettent aux mauvais acteurs de créer de la désinformation plus rapidement et de manière plus réaliste qu’auparavant, augmentant ainsi potentiellement leur influence sur les électeurs.

Les adversaires nationaux et étrangers peuvent utiliser des deepfakes et d’autres formes d’IA générative pour diffuser de fausses informations sur le programme d’un politicien ou falsifier leurs discours, a déclaré Thomas Scanlon, chercheur principal à l’Institut de génie logiciel de l’Université Carnegie Mellon et professeur adjoint au Heinz College of Information Systems. et politique publique.

« Le problème avec les deepfakes est de savoir à quel point ils peuvent être crédibles et à quel point il est problématique de les discerner à partir d’images authentiques », a déclaré Scanlon.

Les électeurs ont vu plus de contenus ridicules générés par l’IA – comme une photo de Donald Trump semblant chevaucher un lion – qu’un assaut de deepfakes hyper réalistes remplis de mensonges, selon l’Associated Press. Néanmoins, Scanlon craint que les électeurs ne soient exposés à des contenus génératifs plus préjudiciables le jour du scrutin ou peu avant, comme des vidéos montrant des agents électoraux disant qu’un lieu de vote ouvert est fermé.

Ce type de désinformation, a-t-il déclaré, pourrait empêcher les électeurs de voter car ils disposeront de peu de temps pour corriger les fausses informations. Dans l’ensemble, la tromperie générée par l’IA pourrait éroder davantage la confiance des électeurs dans les institutions démocratiques et les élus du pays, selon le Block Center for Technology and Society de l’université, hébergé au Heinz College of Information Systems and Public Policy.

« Les gens sont constamment bombardés d’informations, et c’est au consommateur de déterminer : quelle en est la valeur, mais aussi quelle est leur confiance en elles ? Et je pense que c’est vraiment là que les individus peuvent avoir du mal », a déclaré Randall Trzeciak. , directeur du programme de maîtrise ès sciences en politique et gestion de la sécurité de l’information du Heinz College (MSISPM).

Des pas de géant dans l’IA générative

Pendant des années, les gens ont diffusé de fausses informations en manipulant des photos et des vidéos avec des outils tels qu’Adobe Photoshop, a déclaré Scanlon. Ces contrefaçons sont plus faciles à reconnaître et plus difficiles à reproduire à grande échelle par les mauvais acteurs. Cependant, les systèmes d’IA générative permettent aux utilisateurs de créer du contenu rapidement et facilement, même s’ils ne disposent pas d’ordinateurs ou de logiciels sophistiqués.

Les gens tombent dans le piège des deepfakes pour diverses raisons, ont déclaré des professeurs du Heinz College. Si le spectateur utilise un smartphone, il est plus susceptible d’attribuer la mauvaise qualité d’un deepfake à un mauvais service cellulaire. Si un deepfake fait écho à une croyance que le spectateur a déjà – par exemple, qu’un candidat politique ferait la déclaration représentée – le spectateur est moins susceptible de l’examiner attentivement.

La plupart des gens n’ont pas le temps de vérifier chaque vidéo qu’ils voient, ce qui signifie que les deepfakes peuvent semer le doute et éroder la confiance au fil du temps, a écrit Ananya Sen, professeur adjoint de technologies de l’information et de gestion au Heinz College, dans un communiqué. Il craint que les diffusions en direct du dépouillement des votes, bien que destinées à accroître la transparence, puissent être utilisées pour des deepfakes.

Une fois que les fausses informations sont diffusées, il y a peu de possibilités de les corriger et de remettre le génie dans la bouteille.

Contrairement aux moyens précédents de création de désinformation, l’IA générative peut également être utilisée pour envoyer des messages sur mesure aux communautés en ligne, a déclaré Ari Lightman, professeur de médias numériques et de marketing au Heinz College. Si un membre de la communauté partage accidentellement le contenu, les autres peuvent croire son message car ils font confiance à la personne qui l’a partagé.

Les adversaires « examinent les modèles de comportement des consommateurs et la façon dont ils interagissent avec la technologie, en espérant que l’un d’eux clique sur une information qui pourrait se transformer en une diffusion virale de désinformation », a déclaré Lightman.

Il est difficile de démasquer les auteurs de la désinformation générée par l’IA. Les créateurs peuvent utiliser réseaux privés virtuels et d’autres mécanismes pour cacher leurs traces. Les pays ayant des relations conflictuelles avec les États-Unis utilisent probablement cette technologie comme arme, a déclaré Lightman, mais il s’inquiète également des individus et des groupes terroristes qui pourraient opérer sous le radar.

Ce que les électeurs doivent savoir

Les gens devraient faire confiance à leur intuition et tenter de vérifier les vidéos qui, selon eux, pourraient être des deepfakes, a déclaré Scanlon. « Si vous voyez une vidéo qui vous fait douter de son authenticité, alors vous devez reconnaître ce doute », a-t-il déclaré.

Voici quelques signes indiquant qu’une vidéo pourrait être un deepfake, selon Scanlon :

  • Sauts dans le montage : les systèmes d’IA d’aujourd’hui sont largement incapables de créer de longues vidéos deepfake d’un seul point de vue. L’angle de la vidéo peut changer toutes les quelques secondes, ou le sujet peut être montré sous plusieurs côtés dans une succession saccadée.
  • Incohérences d’éclairage : les vidéos Deepfake incluent souvent des ombres qui, de manière irréaliste, proviennent de plusieurs directions ou ne sont présentes que pour une partie de la vidéo. Souvent, l’éclairage de la vidéo scintille.
  • Réactions incompatibles : la vidéo peut montrer le sujet disant quelque chose de choquant avec un visage impassible, ou vice versa. S’il y a d’autres personnes dans la vidéo, leurs réactions peuvent ne pas correspondre au message ou au ton du sujet.
  • Différences de teint ou manque de symétrie faciale : les spectateurs peuvent constater des différences significatives dans le teint du sujet, surtout si ses mains ou ses bras sont inclus dans le cadre. Le sujet peut avoir des oreilles ou des yeux disproportionnés les uns par rapport aux autres.
  • Problèmes avec les lunettes et les boucles d’oreilles : les téléspectateurs peuvent constater que le sujet a des boucles d’oreilles manquantes ou dépareillées ou des lunettes qui ne lui vont pas.
  • Le Block Center a compilé un guide pour aider les électeurs à utiliser l’IA générative dans les campagnes politiques. Le guide encourage les électeurs à poser des questions aux candidats sur leur utilisation de l’IA et à envoyer à leurs représentants élus des lettres favorables à une réglementation plus stricte en matière d’IA.

    « Un électeur informé devrait prendre tout le temps dont il a besoin pour avoir confiance dans les informations qui entrent dans son processus de prise de décision », a déclaré Trzeciak.

    Paysage législatif

    Il n’existe pas de législation fédérale complète réglementant les deepfakes, et plusieurs projets de loi visant à protéger les élections contre les menaces de l’IA sont bloqués au Congrès. Certains États ont adopté des lois interdisant la création ou l’utilisation de deepfakes à des fins malveillantes, mais toutes ne sont pas explicitement liées à l’ingérence électorale.

    Le Sénat de l’État de Pennsylvanie a a présenté un projet de loi cela imposerait des sanctions civiles à ceux qui diffusent des publicités de campagne contenant des usurpations d’identité de candidats politiques générées par l’IA, à condition que les tribunaux puissent prouver une intention malveillante. Le projet de loi n’a pas encore été voté.

    Les lois existantes ne suffisent pas à réglementer l’utilisation des deepfakes, a déclaré Scanlon. Mais, a-t-il ajouté, la nature obscure de la cybercriminalité signifie que toute réglementation fédérale sera probablement difficile à appliquer.

    « L’application des lois consistera probablement à donner périodiquement des exemples de personnes et de groupes pour avoir un effet dissuasif », a déclaré Scanlon.

    Au-delà de la mise en œuvre et de l’application des réglementations, Lightman a déclaré que le pays doit s’attaquer à la polarisation politique et à la diminution de la confiance sociétale dans les institutions qui permettent à la désinformation de prendre feu.

    « Tout ce que nous regardons est soit du sarcasme, soit de la propagande complètement fausse. Et nous ne nous faisons pas confiance », a-t-il déclaré. « Nous devons revenir à une compréhension sociale de la façon dont ce dans quoi nous sommes engagés érode la confiance. Si nous pouvons comprendre cela, nous pourrons peut-être prendre des mesures pour inverser la tendance. »

    Fourni par l’Université Carnegie Mellon

    ph-tech