La conception de Facebook le rend incapable de contrôler la désinformation, selon une étude

Alors que la désinformation se développait en ligne pendant la pandémie de COVID-19, un certain nombre de plateformes ont annoncé des politiques et des pratiques visant à lutter contre la propagation de la désinformation. Ces efforts ont-ils fonctionné ?

Recherche publiée dans Avancées scientifiques suggère que les politiques de désinformation sur le vaccin COVID-19 de Facebook, la plus grande plateforme de médias sociaux au monde, n’ont pas été efficaces pour lutter contre la désinformation. L’étude est intitulée « L’efficacité des politiques et de l’architecture de Facebook en matière de désinformation sur les vaccins pendant la pandémie de COVID-19 ». Des chercheurs de l’Université Johns Hopkins ont contribué au rapport.

L’étude, menée par des chercheurs de l’Université George Washington, a révélé que les efforts de Facebook étaient minés par les principales caractéristiques de conception de la plateforme elle-même.

« Une attention considérable est aujourd’hui accordée aux plateformes de médias sociaux et à la gouvernance de l’intelligence artificielle. Cependant, cette discussion se concentre largement sur le contenu ou les algorithmes. Pour lutter efficacement contre la désinformation et autres méfaits en ligne, nous devons aller au-delà du contenu et des algorithmes pour nous concentrer également sur la conception. et l’architecture », déclare David Broniatowski, auteur principal de l’étude et professeur agrégé de gestion de l’ingénierie et d’ingénierie des systèmes à GW.

« Nos résultats montrent que la suppression de contenu ou la modification d’algorithmes peuvent être inefficaces si cela ne change pas ce pour quoi la plateforme est conçue – permettre aux membres de la communauté de se connecter autour d’intérêts communs – dans ce cas, l’hésitation à la vaccination – et de trouver des informations qui les motivent. chercher. »

Facebook est conçu pour créer des communautés autour des choses qui intéressent les gens. Pour ce faire, il utilise plusieurs fonctionnalités architecturales différentes, notamment des pages de fans qui font la promotion des marques et des célébrités de la communauté, permettant à un groupe relativement restreint d’influenceurs d’atteindre un large public.

Ces influenceurs peuvent ensuite former des groupes, explicitement conçus pour créer des communautés, où les membres de la communauté peuvent échanger des informations, notamment sur la manière d’accéder à des informations erronées ou à d’autres contenus convaincants en dehors de la plateforme.

Ces membres du groupe, et en particulier les administrateurs du groupe (qui sont souvent des créateurs de contenu de page) peuvent ensuite utiliser les algorithmes de fil d’actualité de Facebook pour s’assurer que ces informations sont disponibles à ceux qui souhaitent les voir.

Les chercheurs ont découvert que, même si Facebook a déployé des efforts considérables pour supprimer une grande partie du contenu anti-vaccin pendant la pandémie de COVID-19, l’engagement global en faveur du contenu anti-vaccin n’a pas diminué au-delà des tendances antérieures et, dans certains cas, a même augmenté.

« Cette découverte – selon laquelle les gens étaient tout aussi susceptibles de s’intéresser à la désinformation sur les vaccins avant et après les vastes efforts de suppression de Facebook – est incroyablement préoccupante. Elle montre la difficulté à laquelle nous sommes confrontés en tant que société pour supprimer la désinformation sur la santé des espaces publics », déclare Lorien Abroms, étude auteur et professeur de santé publique à la Milken Institute School of Public Health de GW.

Dans le contenu qui n’a pas été supprimé, il y a eu une augmentation des liens vers des sites hors plateforme, peu crédibles et des liens vers de la désinformation sur des plateformes de médias sociaux « alternatives » comme Gab et Rumble, en particulier dans les groupes anti-vaccin.

En outre, le contenu anti-vaccin restant sur Facebook est devenu plus – et non moins – désinformatif, contenant de fausses allégations sensationnalistes sur les effets secondaires des vaccins qui étaient souvent trop récentes pour être vérifiées en temps réel. Il y a également eu des « dommages collatéraux », affirment les chercheurs, car le contenu pro-vaccin a peut-être également été supprimé en raison des politiques de la plateforme et, dans l’ensemble, le contenu lié aux vaccins est devenu plus politiquement polarisé.

De plus, les producteurs de contenu anti-vaccin ont utilisé la plateforme plus efficacement que les producteurs de contenu pro-vaccin. Même si les deux disposaient de vastes réseaux de pages, les producteurs de contenu anti-vaccin coordonnaient plus efficacement la diffusion du contenu entre les pages, les groupes et les fils d’actualité des utilisateurs.

Même lorsque Facebook a peaufiné ses algorithmes et supprimé du contenu et des comptes pour lutter contre la désinformation sur les vaccins, les chercheurs affirment que l’architecture de la plateforme a reculé.

« Pensez à l’architecture de Facebook comme à un bâtiment. Un aéroport est conçu pour diriger les gens vers et depuis les portes facilement et en toute sécurité, et un stade est conçu pour rassembler en toute sécurité un groupe de personnes pour un spectacle. Si ces bâtiments n’étaient pas conçus pour Si l’on compare les voyages et les divertissements avec la sûreté et la sécurité, les gens risquent régulièrement d’être blessés », explique Broniatowski.

« Maintenant, pensez à la structure de Facebook de la même manière : elle est conçue pour permettre à des personnes motivées de créer des communautés et d’échanger facilement des informations sur n’importe quel sujet. »

« Les individus très motivés à rechercher et à partager du contenu anti-vaccin utilisent simplement le système de la manière pour laquelle il a été conçu, ce qui rend difficile l’équilibre entre ces comportements et les problèmes de santé publique ou d’autres problèmes de sécurité publique. Vous devez changer l’architecture. si vous voulez créer cet équilibre.

Le travail de Broniatowski suggère que les concepteurs de plateformes de médias sociaux pourraient promouvoir la santé et la sécurité publiques en travaillant en collaboration pour développer un ensemble de « codes de construction » pour leurs plateformes, fondés sur des preuves scientifiques afin de réduire les méfaits en ligne.

« Les architectes du bâtiment doivent trouver un équilibre entre les objectifs de conception d’un bâtiment et le respect des règles visant à protéger les personnes qui les utilisent », explique-t-il.

« Ils doivent être conçus pour promouvoir la sécurité publique en se conformant aux codes d’incendie, d’inondation, de pollution et de tremblement de terre. Ils doivent promouvoir la sécurité en incorporant des éléments de conception tels que des entrées, des sorties et des tourniquets bien marqués et accessibles pour éviter le vandalisme, la panique. , le terrorisme et les émeutes. Ils doivent promouvoir la santé publique en se conformant aux codes de plomberie, d’assainissement et de ventilation, et ils doivent être conçus pour respecter les codes municipaux tels que le bruit et autres ordonnances de nuisance.

« Ces règles sont généralement élaborées par un partenariat entre l’industrie, le gouvernement et les organisations communautaires, et elles s’appuient sur des données scientifiques et pratiques solides. Des stratégies de gouvernance pourraient faciliter ces partenariats et soutenir la science. »

Selon les chercheurs, il s’agit de la première et de la seule évaluation scientifique de l’efficacité de la tentative de la plus grande plateforme de médias sociaux au monde de supprimer systématiquement la désinformation et les comptes désinformatifs.

Plus d’information:
David Broniatowski, L’efficacité des politiques et de l’architecture de Facebook en matière de désinformation sur les vaccins pendant la pandémie de COVID-19, Avancées scientifiques (2023). DOI : 10.1126/sciadv.adh2132. www.science.org/doi/10.1126/sciadv.adh2132

Fourni par l’Université George Washington

ph-tech