Plus humain qu’humain : mesurer les préjugés politiques de ChatGPT

Des chercheurs utilisent un ordinateur quantique pour identifier un candidat

La plateforme d’intelligence artificielle ChatGPT montre un biais de gauche important et systémique, selon une nouvelle étude menée par l’Université d’East Anglia (UEA). L’équipe de chercheurs au Royaume-Uni et au Brésil a développé une nouvelle méthode rigoureuse pour vérifier les préjugés politiques.

Paru aujourd’hui dans la revue Choix public, les résultats montrent que les réponses de ChatGPT favorisent les démocrates aux États-Unis ; le parti travailliste au Royaume-Uni ; et au Brésil, le président Lula da Silva du Parti des travailleurs.

Des préoccupations concernant un parti pris politique intégré dans ChatGPT ont été soulevées précédemment, mais il s’agit de la première étude à grande échelle utilisant une analyse cohérente et fondée sur des preuves.

L’auteur principal, le Dr Fabio Motoki, de la Norwich Business School de l’Université d’East Anglia, a déclaré : « Avec l’utilisation croissante par le public de systèmes alimentés par l’IA pour découvrir des faits et créer de nouveaux contenus, il est important que la sortie de plates-formes telles que ChatGPT est aussi impartiale que possible. La présence de préjugés politiques peut influencer les opinions des utilisateurs et avoir des implications potentielles pour les processus politiques et électoraux. Nos résultats renforcent les inquiétudes quant au fait que les systèmes d’IA pourraient reproduire, voire amplifier, les défis existants posés par Internet et réseaux sociaux. »

Les chercheurs ont développé une nouvelle méthode innovante pour tester la neutralité politique de ChatGPT. La plate-forme a été invitée à se faire passer pour des individus de tous les horizons politiques tout en répondant à une série de plus de 60 questions idéologiques. Les réponses ont ensuite été comparées aux réponses par défaut de la plateforme au même ensemble de questions, ce qui a permis aux chercheurs de mesurer dans quelle mesure les réponses de ChatGPT étaient associées à une position politique particulière.

Pour surmonter les difficultés causées par le caractère aléatoire inhérent des « grands modèles de langage » qui alimentent les plates-formes d’IA telles que ChatGPT, chaque question a été posée 100 fois et les différentes réponses collectées. Ces réponses multiples ont ensuite été soumises à un « bootstrap » de 1 000 répétitions (une méthode de rééchantillonnage des données d’origine) pour augmenter encore la fiabilité des inférences tirées du texte généré.

« Nous avons créé cette procédure car effectuer une seule série de tests ne suffit pas », a déclaré le co-auteur Victor Rodrigues. « En raison du caractère aléatoire du modèle, même en se faisant passer pour un démocrate, les réponses ChatGPT penchaient parfois vers la droite du spectre politique. »

Un certain nombre d’autres tests ont été entrepris pour s’assurer que la méthode était aussi rigoureuse que possible. Dans un « test dose-réponse », ChatGPT a été invité à imiter des positions politiques radicales. Dans un « test placebo », on lui a posé des questions politiquement neutres. Et dans un « test d’alignement profession-politique », il a été demandé de se faire passer pour différents types de professionnels.

« Nous espérons que notre méthode facilitera l’examen et la réglementation de ces technologies en développement rapide », a déclaré le co-auteur, le Dr Pinho Neto. « En permettant la détection et la correction des biais LLM, nous visons à promouvoir la transparence, la responsabilité et la confiance du public dans cette technologie », a-t-il ajouté.

Le nouvel outil d’analyse unique créé par le projet serait disponible gratuitement et relativement simple à utiliser pour les membres du public, « démocratisant ainsi la surveillance », a déclaré le Dr Motoki. En plus de vérifier les préjugés politiques, l’outil peut être utilisé pour mesurer d’autres types de préjugés dans les réponses de ChatGPT.

Bien que le projet de recherche n’ait pas cherché à déterminer les raisons du parti pris politique, les résultats ont indiqué deux sources potentielles.

Le premier était l’ensemble de données de formation, qui peut contenir des biais ou y être ajouté par les développeurs humains, que la procédure de « nettoyage » des développeurs n’avait pas réussi à supprimer. La deuxième source potentielle était l’algorithme lui-même, qui peut amplifier les biais existants dans les données de formation.

La recherche a été entreprise par le Dr Fabio Motoki (Norwich Business School, Université d’East Anglia), le Dr Valdemar Pinho Neto (EPGE École brésilienne d’économie et de finance—FGV EPGE, et Centre d’études empiriques en économie—FGV CESE), et Victor Rodrigues (Nova Education).

Plus d’information:
Plus humain qu’humain : mesurer les préjugés politiques de ChatGPT, Choix public (2023). papers.ssrn.com/sol3/papers.cf … ?abstract_id=4372349

Fourni par l’Université d’East Anglia

ph-tech