Le biais d’IA génératif présente un risque pour les valeurs démocratiques, suggère la recherche

L’IA générative, une technologie qui se développe à une vitesse vertigineuse, peut comporter des risques cachés qui pourraient éroder la confiance du public et les valeurs démocratiques, selon une étude menée par l’Université d’East Anglia (UEA).

En collaboration avec des chercheurs de la Fondation Getulio Vargas (FGV) et de l’INSPER, à la fois au Brésil, la recherche a montré que Chatgpt présente des biais à la fois dans les résultats du texte et de l’image – en se dirigeant vers les valeurs politiques de gauche – posant des questions sur l’équité et la responsabilité dans sa conception .

L’étude a révélé que Chatgpt refuse souvent de s’engager avec les points de vue conservateurs traditionnels tout en produisant facilement du contenu de gauche. Ce traitement inégal des idéologies souligne comment ces systèmes peuvent déformer le discours public et aggraver les divisions sociétales.

Le Dr Fabio Motoki, maître de conférences en comptabilité à la Norwich Business School de l’UEA, est le principal chercheur du document, «  évaluant les biais politiques et la valeur du désalignement de l’intelligence artificielle générative  » publiée dans le Journal of Economic Behavior & Organisation.

Le Dr Motoki a déclaré: « Nos résultats suggèrent que les outils génératifs de l’IA sont loin d’être neutres. Ils reflètent des biais qui pourraient façonner les perceptions et les politiques de manière involontaire. »

Alors que l’IA devient une partie intégrante du journalisme, de l’éducation et de l’élaboration des politiques, l’étude appelle à la transparence et aux garanties réglementaires pour assurer l’alignement sur les valeurs sociétales et les principes de la démocratie.

Les systèmes d’IA génératifs comme Chatgpt reflètent la façon dont les informations sont créées, consommées, interprétées et distribuées dans divers domaines. Ces outils, bien qu’innovants, risquent d’amplifier les biais idéologiques et d’influencer les valeurs sociétales d’une manière qui n’est pas entièrement comprise ou réglementée.

Le co-auteur du Dr Pinho Neto, professeur d’économie à l’Epge Brazilian School of Economics and Finance, a souligné les ramifications sociétales potentielles.

Le Dr Pinho Neto a déclaré: « Les préjugés incontrôlés de l’IA générative pourraient approfondir les divisions sociétales existantes, éroder la confiance dans les institutions et les processus démocratiques.

« L’étude souligne la nécessité d’une collaboration interdisciplinaire entre les décideurs, les technologues et les universitaires pour concevoir des systèmes d’IA qui sont équitables, responsables et alignés sur les normes sociétales. »

L’équipe de recherche a utilisé trois méthodes innovantes pour évaluer l’alignement politique dans Chatgpt, faisant progresser les techniques antérieures pour obtenir des résultats plus fiables. Ces méthodes combinaient l’analyse du texte et de l’image, en tirant parti des outils avancés statistiques et d’apprentissage automatique.

Premièrement, l’étude a utilisé un questionnaire standardisé développé par le Pew Research Center pour simuler les réponses des Américains moyens.

« En comparant les réponses de Chatgpt aux données d’enquête réelles, nous avons trouvé des écarts systématiques vers des perspectives de gauche », a déclaré le Dr Motoki. « En outre, notre approche a démontré comment la grande taille des échantillons stabilise les sorties AI, ce qui assure la cohérence des résultats. »

Dans la deuxième phase, Chatgpt a été chargé de générer des réponses en texte libre à travers des thèmes politiquement sensibles.

L’étude a également utilisé Roberta, un modèle de grande langue différent, pour comparer le texte de Chatgpt pour aligner sur les points de vue de gauche et de droite. Les résultats ont révélé que si Chatgpt s’alignait avec les valeurs de gauche dans la plupart des cas, sur des thèmes comme la suprématie militaire, il reflétait parfois des perspectives plus conservatrices.

Le test final a exploré les capacités de génération d’images de Chatgpt. Les thèmes de la phase de génération de texte ont été utilisés pour provoquer des images générées par l’AI, avec des sorties analysées à l’aide de la vision GPT-4 et corroborées via les Gémeaux de Google.

« Alors que la génération d’images reflétait les préjugés textuels, nous avons trouvé une tendance troublante », a déclaré Victor Rangel, co-auteur et étudiant des maîtres en politique publique chez Insper. « Pour certains thèmes, tels que l’égalité raciale-ethnique, Chatgpt a refusé de générer des perspectives de droite, citant des problèmes de désinformation. Les images de gauche ont cependant été produites sans hésitation. »

Pour répondre à ces refus, l’équipe a utilisé une stratégie de « jailbreaking » pour générer les images restreintes.

« Les résultats ont été révélateurs », a déclaré M. Rangel. « Il n’y avait pas de désinformation apparente ou de contenu nuisible, soulevant des questions sur la justification de ces refus. »

Le Dr Motoki a souligné la signification plus large de cette constatation, disant: « Cela contribue aux débats autour des protections constitutionnelles comme le premier amendement américain et l’applicabilité des doctrines d’équité aux systèmes d’IA. »

Les innovations méthodologiques de l’étude, y compris son utilisation de l’analyse multimodale, fournissent un modèle reproductible pour examiner les biais dans les systèmes d’IA génératifs. Ces résultats mettent en évidence le besoin urgent de responsabilité et de garanties dans la conception de l’IA pour éviter les conséquences sociétales involontaires.

Plus d’informations:
Évaluer les préjugés politiques et évaluer le désalignement dans l’intelligence artificielle générative, Journal of Economic Behavior & Organisation (2025).

Fourni par l’Université d’East Anglia

ph-tech