L’IA peut-elle nous sortir des pièges des théories du complot ?

Nouvelles recherches publié dans Science Une étude montre que pour certaines personnes qui croient aux théories du complot, une conversation basée sur des faits avec un chatbot à intelligence artificielle (IA) peut les « sortir du terrier du lapin ». Mieux encore, il semble les tenir à l’écart pendant au moins deux mois.

Cette recherche, menée par Thomas Costello du Massachusetts Institute of Technology et ses collègues, est prometteuse pour résoudre un problème social complexe : la croyance aux théories du complot.

Certaines théories du complot sont relativement inoffensives, comme croire que la Finlande n’existe pas (ce qui est bien, jusqu’à ce que vous rencontriez un Finlandais). D’autres théories, cependant, réduisent la confiance dans institutions publiques et science.

Cela devient un problème lorsque les théories du complot persuadent les gens de ne pas le faire. se faire vacciner ou pas à agir contre le changement climatique. Dans ses formes les plus extrêmes, la croyance aux théories du complot a été associée à personnes en train de mourir.

Les théories du complot sont « tenaces »

Malgré leurs effets négatifs, les théories du complot se sont révélées très tenaces. Une fois que les gens croient à une théorie du complot, il est difficile de changer d’avis.

Les raisons en sont complexes. Les croyances des théoriciens du complot sont associé aux communautéset les théoriciens du complot ont souvent fait des recherches approfondies pour atteindre leur position.

Lorsqu’une personne ne fait plus confiance à la science ou à quiconque en dehors de sa communauté, il est difficile de changer ses croyances.

Entrez l’IA

L’explosion de l’IA générative dans la sphère publique a accru les inquiétudes concernant les gens qui croient en des choses qui ne sont pas vraies. L’IA le rend très facile créer faux contenu crédible.

Même s’ils sont utilisés de bonne foi, les systèmes d’IA peuvent se tromper sur les faits. (ChatGPT et d’autres chatbots avertissent même les utilisateurs qu’ils pourraient se tromper sur certains sujets.)

Les systèmes d’IA contiennent également des biais répandus, ce qui signifie qu’ils peuvent promouvoir des croyances négatives à propos de certains groupes de personnes.

Compte tenu de tout cela, il est assez surprenant qu’une discussion avec un système connu pour produire de fausses nouvelles puisse convaincre certaines personnes d’abandonner les théories du complot, et que le changement semble être durable.

Cependant, cette nouvelle recherche nous laisse avec un problème de bonne/mauvaise nouvelle.

C’est formidable que nous ayons identifié quelque chose qui a un effet sur les croyances des théoriciens du complot ! Mais si les chatbots IA sont efficaces pour dissuader les gens de leurs croyances tenaces et antiscientifiques, qu’est-ce que cela signifie pour les croyances vraies ?

Que peuvent faire les chatbots ?

Examinons de plus près cette nouvelle étude. Les chercheurs voulaient savoir si des arguments factuels pouvaient être utilisés pour convaincre les gens de ne pas croire aux théories du complot.

Cette recherche a porté sur plus de 2 000 participants répartis dans deux études, tous discutant avec un chatbot IA après avoir décrit une théorie du complot à laquelle ils croyaient. Tous les participants ont été informés qu’ils parlaient à un chatbot IA.

Les participants du groupe « traitement » (60 % de tous les participants) ont discuté avec un chatbot personnalisé en fonction de leur théorie du complot et des raisons pour lesquelles ils y croyaient. Ce chatbot a essayé de convaincre ces participants que leurs croyances étaient fausses en utilisant des arguments factuels au cours de trois tours de conversation (le participant et le chatbot prenant chacun leur tour de parole constituent un tour). L’autre moitié des participants a eu une discussion générale avec un chatbot.

Les chercheurs ont constaté qu’environ 20 % des participants du groupe de traitement ont montré une diminution de leur croyance aux théories du complot après leur discussion. Lorsque les chercheurs ont interrogé les participants deux mois plus tard, la plupart d’entre eux montraient toujours une moindre croyance aux théories du complot. Les scientifiques ont même vérifié si les chatbots IA étaient précis, et c’était (pour la plupart) le cas.

Nous pouvons voir que pour certaines personnes au moins, une conversation en trois rounds avec un chatbot peut les persuader de ne pas adhérer à une théorie du complot.

Alors on peut régler les problèmes avec des chatbots ?

Les chatbots offrent une certaine promesse en ce qui concerne deux des défis liés à la lutte contre les fausses croyances.

Parce qu’ils sont des ordinateurs, ils ne sont pas perçus comme ayant un « agenda »ce qui rend ce qu’ils disent plus digne de confiance (en particulier pour quelqu’un qui a perdu confiance dans les institutions publiques).

Les chatbots peuvent également élaborer un argument, ce qui est plus efficace que de simples faits. Une simple récitation de faits n’est que minimalement efficace contre les fausses croyances.

Les chatbots ne sont cependant pas la panacée. Cette étude a montré qu’ils étaient plus efficaces pour les personnes qui n’avaient pas de bonnes raisons personnelles de croire à une théorie du complot, ce qui signifie qu’ils n’aideront probablement pas les personnes pour qui le complot est une communauté.

Dois-je donc utiliser ChatGPT pour vérifier mes faits ?

Cette étude démontre à quel point les chatbots peuvent être persuasifs. C’est formidable lorsqu’ils sont conçus pour convaincre les gens de faits, mais qu’en est-il s’ils ne le sont pas ?

L’une des principales façons dont les chatbots peuvent promouvoir la désinformation ou les conspirations est lorsque leurs données sous-jacentes sont erronées ou biaisées : le chatbot reflétera cela.

Certains chatbots sont conçus refléter délibérément les préjugés ou augmenter ou limiter la transparence. Vous pouvez même discuter avec des versions de ChatGPT personnalisées pour soutiennent que la Terre est plate.

Une deuxième probabilité, plus inquiétante, est que, dans la mesure où les chatbots répondent à des invites biaisées (dont les chercheurs peuvent ne pas se rendre compte qu’elles sont biaisées), ils peuvent perpétuer la désinformation (y compris les croyances en matière de complot).

Nous savons déjà que les gens sont mauvais en matière de vérification des faits et que lorsqu’ils utilisent les moteurs de recherche pour le faire, ces moteurs de recherche répondent à leurs termes de recherche (involontairement biaisés), renforcer les croyances en matière de désinformationLes chatbots sont probablement le même.

En fin de compte, les chatbots sont un outil. Ils peuvent être utiles pour démystifier les théories du complot, mais comme pour tout outil, les compétences et les intentions de celui qui les crée et de l’utilisateur comptent. Les théories du complot commencent avec les gens, et ce sont eux qui les mettront fin.

Fourni par The Conversation

Cet article est republié à partir de La Conversation sous licence Creative Commons. Lire la suite article original.

ph-tech