Les législateurs ont du mal à différencier l’IA et les e-mails humains

Une equipe de recherche internationale cree des composes azotes jusque la

Les modèles de langage naturel tels que ChatGPT et GPT-4 ouvrent de nouvelles opportunités aux acteurs malveillants pour influencer la démocratie représentative, selon une nouvelle recherche de Cornell.

Une expérience sur le terrain examinant comment le modèle de langage naturel GPT-3, le prédécesseur du modèle le plus récemment publié, pourrait être utilisé pour générer des messages électroniques constitutifs a montré que les législateurs n’étaient que légèrement moins susceptibles de répondre aux messages générés par l’IA (15,4 %) que d’origine humaine (17,3 %).

La différence de 2%, glanée à partir de plus de 32 000 messages envoyés à environ 7 000 législateurs d’État aux États-Unis, était statistiquement significative mais substantiellement faible, ont déclaré les chercheurs. Les résultats mettent en évidence les menaces potentielles que cette technologie présente pour la représentation démocratique, mais suggèrent également des moyens pour les législateurs de se prémunir contre l’astroturfing basé sur l’IA, la pratique malhonnête consistant à créer un sentiment de soutien à la base, dans ce cas en envoyant de gros volumes de contenu sympathique à un particulier. problème.

L’étude, « The Potential Impact of Emerging Technologies on Democratic Representation: Evidence from a Field Experiment », co-écrite par Sarah Kreps, professeure John L. Wetherill au Département du gouvernement du Collège des arts et des sciences (A&S), directeur du Cornell Jeb E. Brooks School Tech Policy Institute et professeur auxiliaire de droit, et Douglas Kriner, professeur Clinton Rossiter dans les institutions américaines du Département du gouvernement (A&S) et professeur à la Brooks School, publié le 20 mars dans Nouveaux médias et société.

Ces dernières années, les nouvelles technologies de communication ont interféré à plusieurs reprises avec le processus démocratique, a déclaré Kreps. Lors de l’élection présidentielle américaine de 2016, des agents russes ont utilisé des publicités micro-ciblées sur les réseaux sociaux pour manipuler les électeurs américains et influencer le résultat. Et en 2017, les lignes de commentaires publics de la Federal Communications Commission ont été inondées de millions de messages générés par des modèles de langage naturel en réponse à une proposition d’annulation de la réglementation.

Dans cet esprit, Kreps, qui était l’un des premiers collaborateurs universitaires d’OpenAI, l’organisation qui a développé GPT-2, -3 et -4, et le ChatGPT plus courant, s’est demandé ce que les acteurs malveillants pourraient faire avec des modèles de langage plus puissants désormais largement disponibles. .

« Pourraient-ils générer de la désinformation ou du contenu politiquement motivé et ciblé à grande échelle ? » elle a demandé. « Pourraient-ils fausser efficacement le processus démocratique ? Ou pourraient-ils être capables de générer de gros volumes de courriels qui semblent provenir d’électeurs et ainsi déplacer l’agenda législatif vers les intérêts d’un gouvernement étranger ?

Dans leur expérience, menée tout au long de 2020, Kreps et Kriner ont choisi six problèmes actuels : les droits reproductifs, la police, les niveaux d’imposition, le contrôle des armes à feu, la politique de santé et la politique d’éducation. Pour créer les messages générés par l’homme, les étudiants de premier cycle associés à l’Union politique Cornell dirigée par des étudiants ont rédigé des e-mails aux législateurs des États sur chaque sujet, plaidant pour la position de droite ou de gauche.

Ensuite, ils ont produit des lettres de circonscription générées par machine à l’aide de GPT-3, entraînant le système sur 12 lettres (une position à droite et une à gauche pour chacun des six problèmes). Ils ont généré 100 résultats différents pour chacune des idéologies et des sujets.

De nombreux législateurs et leur personnel n’ont pas rejeté le contenu généré par la machine comme inauthentique, ont déclaré les chercheurs, comme le montre la petite différence dans les réponses entre l’IA et le contenu humain sur les six questions.

De plus, les messages sur le contrôle des armes à feu et la politique de santé ont reçu des taux de réponse pratiquement identiques, et sur la politique de l’éducation, le taux de réponse était plus élevé pour les messages générés par l’IA, suggérant que « sur ces questions, GPT-3 a réussi à produire un contenu qui était presque impossible à distinguer dans le yeux des bureaux législatifs des États du contenu humain », ont-ils écrit.

Dans les commentaires après l’expérience, les législateurs des États ont expliqué comment ils sélectionnent les faux e-mails, tels que le manque de marqueurs géographiques. Certains ont dit qu’ils représentent des districts si petits qu’ils peuvent repérer les contrefaçons simplement en regardant un nom.

« C’était réconfortant d’entendre que beaucoup de ces législateurs comprennent vraiment leurs électeurs et leurs voix, et que ces messages générés par l’IA ne ressemblaient pas du tout à quelque chose que leurs électeurs écriraient », a déclaré Kreps.

Cependant, de tels indices locaux d’authenticité seraient plus difficiles à repérer pour les sénateurs et les représentants au niveau national, ont déclaré les chercheurs.

Les outils technologiques utilisant le même type de réseaux de neurones peuvent aider à différencier les vrais messages des faux, « mais il en va de même pour un œil averti et une littératie numérique », a déclaré Kreps. « Les législateurs doivent être formés pour savoir ce qu’il faut rechercher. »

À mesure que la capacité d’astroturfing électronique augmente, les législateurs devront peut-être s’appuyer davantage sur d’autres sources d’informations sur les préférences des circonscriptions, a déclaré Kriner, y compris les données des sondages de district et les événements en personne: « Ils se déplacent dans leurs circonscriptions pour tenir des réunions municipales et obtenir un direct attentif, du moins de la part des personnes les plus animées par un problème. »

Les deux chercheurs sont optimistes que la démocratie en Amérique survivra à cette nouvelle menace.

« Vous pourriez dire que le passage de s’asseoir et d’écrire une lettre à l’écriture d’un e-mail était beaucoup plus important qu’entre les modèles d’e-mails en ligne passe-partout et GPT-3 », a déclaré Kreps. « Nous nous sommes adaptés auparavant, et les institutions démocratiques le feront à nouveau. »

Plus d’information:
Sarah Kreps et al, L’impact potentiel des technologies émergentes sur la représentation démocratique : preuve d’une expérience de terrain, Nouveaux médias et société (2023). DOI : 10.1177/14614448231160526

Fourni par l’Université Cornell

ph-tech