Les puissants algorithmes utilisés par Facebook et Instagram pour fournir du contenu aux utilisateurs sont de plus en plus accusés d’amplifier la désinformation et la polarisation politique. Mais une série d’études révolutionnaires publiées jeudi suggèrent que relever ces défis n’est pas aussi simple que de peaufiner le logiciel des plates-formes.
Les quatre articles de recherche, publiés dans Science et Naturerévèlent également l’étendue des chambres d’écho politiques sur Facebook, où les conservateurs et les libéraux s’appuient sur des sources d’information divergentes, interagissent avec des groupes opposés et consomment des quantités nettement différentes de désinformation.
Les algorithmes sont les systèmes automatisés que les plateformes de médias sociaux utilisent pour suggérer du contenu aux utilisateurs en faisant des hypothèses basées sur les groupes, les amis, les sujets et les titres sur lesquels un utilisateur a cliqué dans le passé. Alors qu’ils excellent à garder les utilisateurs engagés, les algorithmes ont été critiqués pour avoir amplifié la désinformation et le contenu idéologique qui ont aggravé les divisions politiques du pays.
Les propositions visant à réglementer ces systèmes sont parmi les idées les plus discutées pour aborder le rôle des médias sociaux dans la diffusion de la désinformation et l’encouragement de la polarisation. Mais lorsque les chercheurs ont modifié les algorithmes de certains utilisateurs lors des élections de 2020, ils n’ont vu que peu de différence.
« Nous constatons que les algorithmes sont extrêmement influents sur les expériences des gens sur la plate-forme et qu’il existe une ségrégation idéologique importante dans l’exposition aux nouvelles politiques », a déclaré Talia Jomini Stroud, directrice du Center for Media Engagement de l’Université du Texas à Austin et l’un des dirigeants. des études. « Nous constatons également que les propositions populaires visant à modifier les algorithmes des médias sociaux n’ont pas influencé les attitudes politiques. »
Alors que les différences politiques sont une fonction de toute démocratie saine, la polarisation se produit lorsque ces différences commencent à séparer les citoyens les uns des autres et les liens sociaux qu’ils partagent. Elle peut saper la confiance dans les institutions démocratiques et la liberté de la presse.
Une division importante peut saper la confiance dans la démocratie ou les institutions démocratiques et conduire à une « polarisation affective », lorsque les citoyens commencent à se considérer davantage comme des ennemis que comme une opposition légitime. C’est une situation qui peut conduire à la violence, comme ce fut le cas lorsque les partisans du président de l’époque, Donald Trump, ont attaqué le Capitole américain le 6 janvier 2021.
Pour mener l’analyse, les chercheurs ont obtenu un accès sans précédent aux données Facebook et Instagram de l’élection de 2020 grâce à une collaboration avec Meta, les propriétaires des plateformes. Les chercheurs disent que Meta n’a exercé aucun contrôle sur leurs découvertes.
Lorsqu’ils ont remplacé l’algorithme par une simple liste chronologique des publications d’amis – une option que Facebook a récemment mise à la disposition des utilisateurs – cela n’a eu aucun impact mesurable sur la polarisation. Lorsqu’ils ont désactivé l’option de repartage de Facebook, qui permet aux utilisateurs de partager rapidement des publications virales, les utilisateurs ont vu beaucoup moins de nouvelles provenant de sources non fiables et moins de nouvelles politiques en général, mais il n’y a eu aucun changement significatif dans leurs attitudes politiques.
De même, la réduction du contenu que les utilisateurs de Facebook reçoivent des comptes ayant le même alignement idéologique n’a eu aucun effet significatif sur la polarisation, la sensibilité à la désinformation ou aux opinions extrémistes.
Ensemble, les résultats suggèrent que les utilisateurs de Facebook recherchent un contenu qui correspond à leurs points de vue et que les algorithmes aident en « facilitant aux gens de faire ce qu’ils sont enclins à faire », selon David Lazer, professeur à la Northeastern University qui a travaillé sur les quatre papiers.
L’élimination totale de l’algorithme a considérablement réduit le temps que les utilisateurs passent sur Facebook ou Instagram tout en augmentant leur temps sur TikTok, YouTube ou d’autres sites, montrant à quel point ces systèmes sont importants pour Meta dans le paysage des médias sociaux de plus en plus encombré.
En réponse aux articles, le président de Meta pour les affaires mondiales, Nick Clegg, a déclaré que les résultats montraient « qu’il y a peu de preuves que les principales caractéristiques des plates-formes de Meta provoquent à elles seules une polarisation » affective « préjudiciable ou ont un impact significatif sur les attitudes, croyances ou comportements politiques clés. . »
Katie Harbath, ancienne directrice des politiques publiques de Facebook, a déclaré qu’ils montraient la nécessité d’une recherche plus approfondie sur les médias sociaux et remettaient en question les hypothèses sur le rôle que jouent les médias sociaux dans la démocratie américaine. Harbath n’a pas été impliqué dans la recherche.
« Les gens veulent une solution simple et ce que ces études montrent, c’est que ce n’est pas simple », a déclaré Harbath, membre du Bipartisan Policy Center et PDG de la société de technologie et de politique Anchor Change. « Pour moi, cela renforce le fait qu’en matière de polarisation ou de croyances politiques des gens, il y a bien plus que les médias sociaux. »
Une organisation qui a critiqué le rôle de Meta dans la diffusion de fausses informations sur les élections et le vote a qualifié la recherche de « limitée » et a noté qu’il ne s’agissait que d’un instantané pris au milieu d’une élection et n’avait pas pris en compte les effets d’années de social désinformation médiatique.
Free Press, une organisation à but non lucratif qui défend les droits civils dans la technologie et les médias, a qualifié l’utilisation par Meta de la recherche de « spin calculé ».
« Les méta-dirigeants s’appuient sur des recherches limitées comme preuve qu’ils ne devraient pas partager le blâme pour l’augmentation de la polarisation politique et de la violence », a déclaré Nora Benavidez, avocate principale du groupe et directrice de la justice numérique et des droits civils dans un communiqué. « Les études approuvées par Meta, qui semblent fragmentaires sur des périodes de temps restreintes, ne devraient pas servir d’excuses pour permettre aux mensonges de se répandre. »
Les quatre études ont également révélé l’étendue des différences idéologiques des utilisateurs de Facebook et les différentes façons dont les conservateurs et les libéraux utilisent la plateforme pour obtenir des nouvelles et des informations sur la politique.
Les utilisateurs conservateurs de Facebook sont plus susceptibles de consommer du contenu qualifié de désinformation par les vérificateurs des faits. Ils ont également plus de sources à choisir. L’analyse a révélé que parmi les sites Web inclus dans les publications politiques sur Facebook, beaucoup plus s’adressaient aux conservateurs qu’aux libéraux.
Dans l’ensemble, 97 % des sources d’informations politiques sur Facebook identifiées par les vérificateurs de faits comme ayant diffusé des informations erronées étaient plus populaires auprès des conservateurs que des libéraux.
Les auteurs des articles ont reconnu certaines limites à leur travail. Bien qu’ils aient constaté que la modification des algorithmes de Facebook avait peu d’impact sur la polarisation, ils notent que l’étude n’a couvert que quelques mois lors des élections de 2020 et ne peut donc pas évaluer l’impact à long terme que les algorithmes ont eu depuis le début de leur utilisation il y a des années.
Ils ont également noté que la plupart des gens obtiennent leurs nouvelles et leurs informations de diverses sources – télévision, radio, Internet et bouche à oreille – et que ces interactions peuvent également affecter les opinions des gens. Beaucoup aux États-Unis accusent les médias d’avoir aggravé la polarisation.
Pour compléter leurs analyses, les chercheurs se sont penchés sur les données de millions d’utilisateurs de Facebook et d’Instagram et ont interrogé des utilisateurs spécifiques qui ont accepté de participer. Toutes les informations d’identification sur des utilisateurs spécifiques ont été supprimées pour des raisons de confidentialité.
Lazer, le professeur du Nord-Est, a déclaré qu’il était d’abord sceptique quant au fait que Meta donnerait aux chercheurs l’accès dont ils avaient besoin, mais il a été agréablement surpris. Il a déclaré que les conditions imposées par la société étaient liées à des préoccupations juridiques et de confidentialité raisonnables. D’autres études issues de la collaboration seront publiées dans les mois à venir.
« Il n’y a pas d’étude comme celle-ci », a-t-il déclaré à propos de la recherche publiée jeudi. « Il y a eu beaucoup de rhétorique à ce sujet, mais à bien des égards, la recherche a été assez limitée. »
Plus d’information:
Andrew M. Guess, Comment les algorithmes de flux de médias sociaux affectent-ils les attitudes et les comportements lors d’une campagne électorale ?, Science (2023). DOI : 10.1126/science.abp9364. www.science.org/doi/10.1126/science.abp9364
Sandra González-Bailón, Ségrégation idéologique asymétrique dans l’exposition à l’actualité politique sur Facebook, Science (2023). DOI : 10.1126/science.ade7138. www.science.org/doi/10.1126/science.ade7138
Andrew M. Guess, Les partages sur les réseaux sociaux amplifient les nouvelles politiques mais n’affectent pas de manière détectable les croyances ou les opinions, Science (2023). DOI : 10.1126/science.add8424. www.science.org/doi/10.1126/science.add8424
Brendan Nyhan, Les sources partageant les mêmes idées sur Facebook sont répandues mais ne se polarisent pas, Nature (2023). DOI : 10.1038/s41586-023-06297-w. www.nature.com/articles/s41586-023-06297-w
© 2023 L’Associated Press. Tous les droits sont réservés. Ce matériel ne peut être publié, diffusé, réécrit ou redistribué sans autorisation.