YouTube est plus susceptible de recommander des vidéos de fraude électorale aux utilisateurs déjà sceptiques quant à la légitimité des élections de 2020

Tous tels nach Plastik Mit zunehmendem Abfall augmente auch das

YouTube était plus susceptible de recommander des vidéos sur la fraude électorale aux utilisateurs qui étaient déjà sceptiques quant à la légitimité de l’élection présidentielle américaine de 2020, montre une nouvelle étude examinant l’impact des algorithmes du site.

Les résultats de la recherche, qui sont publiés dans le Journal de la confiance et de la sécurité en lignea montré que les plus sceptiques quant à la légitimité de l’élection ont vu trois fois plus de vidéos liées à la fraude électorale que les participants les moins sceptiques – environ 8 recommandations supplémentaires sur environ 400 vidéos suggérées à chaque participant à l’étude.

Alors que la prévalence globale de ces types de vidéos était faible, les résultats exposent les conséquences d’un système de recommandation qui fournit aux utilisateurs le contenu qu’ils souhaitent. Pour ceux qui sont le plus préoccupés par une éventuelle fraude électorale, leur montrer du contenu connexe a fourni un mécanisme par lequel la désinformation, la désinformation et les complots peuvent trouver leur chemin vers ceux qui sont les plus susceptibles de les croire, observent les auteurs de l’étude. Il est important de noter que ces modèles reflètent l’influence indépendante de l’algorithme sur ce que les utilisateurs réels sont affichés lors de l’utilisation de la plate-forme.

« Nos résultats révèlent les conséquences néfastes des algorithmes de recommandation et mettent en doute l’idée que les environnements d’information en ligne sont uniquement déterminés par le choix de l’utilisateur », déclare James Bisbee, qui a dirigé l’étude en tant que chercheur postdoctoral au Center for Social Media and Politics de l’Université de New York. (CSMaP).

Près de deux ans après l’élection présidentielle de 2020, un grand nombre d’Américains, en particulier républicains, ne croient pas à la légitimité du résultat.

« Environ 70% des républicains ne considèrent pas Biden comme le vainqueur légitime », malgré « de multiples recomptages et audits qui ont confirmé la victoire de Joe Biden », a écrit PolitiFact du Poynter Institute plus tôt cette année.

Bien qu’il soit bien connu que les plateformes de médias sociaux, telles que YouTube, dirigent le contenu vers les utilisateurs en fonction de leurs préférences de recherche, les conséquences de cette dynamique peuvent ne pas être pleinement réalisées.

Dans l’étude CSMaP, les chercheurs ont échantillonné plus de 300 Américains avec des comptes YouTube en novembre et décembre 2020. On a demandé aux sujets dans quelle mesure ils étaient préoccupés par un certain nombre d’aspects de la fraude électorale, y compris les bulletins de vote frauduleux étant comptés, les bulletins de vote valides étant rejetés, les gouvernements étrangers interfèrent et les citoyens non américains votent, entre autres questions.

Ces participants ont ensuite été invités à installer une extension de navigateur qui enregistrerait la liste des recommandations qui leur étaient présentées. Les sujets ont ensuite été invités à cliquer sur une vidéo YouTube attribuée au hasard (la vidéo « semence »), puis à cliquer sur l’une des recommandations qui leur ont été présentées selon une « règle de traversée » attribuée au hasard. Par exemple, les utilisateurs affectés à la « seconde règle de parcours » seraient tenus de toujours cliquer sur la deuxième vidéo dans la liste des recommandations affichées, quel que soit son contenu. En limitant le comportement des utilisateurs de ces manières, les chercheurs ont pu isoler l’influence de l’algorithme de recommandation sur ce que de vrais utilisateurs étaient suggérés en temps réel.

Les sujets ont ensuite parcouru une séquence de vidéos recommandées par YouTube, permettant aux chercheurs d’observer ce que l’algorithme YouTube suggérait à ses utilisateurs. Bisbee et ses collègues ont ensuite comparé le nombre de vidéos sur la fraude électorale lors de l’élection présidentielle américaine de 2020 qui ont été recommandées aux participants plus sceptiques quant à la légitimité de l’élection à celles recommandées aux participants moins sceptiques. Ces résultats ont montré que les sceptiques des élections se sont vu recommander en moyenne huit vidéos supplémentaires sur une éventuelle fraude lors des élections américaines de 2020, par rapport aux participants non sceptiques (12 contre 4).

« Beaucoup pensent que les algorithmes de recommandation automatisés ont peu d’influence sur les » chambres d’écho « en ligne dans lesquelles les utilisateurs ne voient que du contenu qui réaffirme leurs opinions préexistantes », observe Bisbee, aujourd’hui professeur adjoint à l’Université Vanderbilt.

« Notre étude suggère cependant que l’algorithme de recommandation de YouTube a pu déterminer quels utilisateurs étaient les plus susceptibles d’être préoccupés par la fraude lors de l’élection présidentielle américaine de 2020, puis a suggéré jusqu’à trois fois plus de vidéos sur la fraude électorale à ces utilisateurs par rapport à ceux moins préoccupé par la fraude électorale. Cela met en évidence la nécessité d’une enquête plus approfondie sur la façon dont les algorithmes de recommandation opaques fonctionnent sur une base de problème par problème.

Plus d’information:
James Bisbee et al, fraude électorale, YouTube et perception publique de la légitimité du président Biden, Journal de la confiance et de la sécurité en ligne (2022). doi.org/10.54501/jots.v1i3.60

Fourni par l’Université de New York

ph-tech