Aufgrund seines Designs ist Facebook nicht in der Lage, Falschinformationen zu kontrollieren, wie Untersuchungen zeigen

Als während der COVID-19-Pandemie Fehlinformationen online florierten, kündigten eine Reihe von Plattformen Richtlinien und Praktiken an, die darauf abzielen, die Verbreitung von Fehlinformationen zu bekämpfen. Haben diese Bemühungen funktioniert?

Forschung veröffentlicht in Wissenschaftliche Fortschritte weist darauf hin, dass die Falschinformationspolitik von Facebook, der weltweit größten Social-Media-Plattform, zu COVID-19-Impfstoffen bei der Bekämpfung von Falschinformationen nicht wirksam war. Die Studie trägt den Titel „Die Wirksamkeit der Richtlinien und Architektur von Facebook zur Fehlinformation von Impfstoffen während der COVID-19-Pandemie“. Forscher der Johns Hopkins University haben zu dem Bericht beigetragen.

Die von Forschern der George Washington University durchgeführte Studie ergab, dass die Bemühungen von Facebook durch die zentralen Designmerkmale der Plattform selbst untergraben wurden.

„Social-Media-Plattformen und der Steuerung künstlicher Intelligenz wird heute große Aufmerksamkeit geschenkt. Diese Diskussion konzentriert sich jedoch hauptsächlich auf Inhalte oder Algorithmen. Um Fehlinformationen und andere Online-Schäden wirksam zu bekämpfen, müssen wir über Inhalte und Algorithmen hinausgehen und uns auch auf das Design konzentrieren.“ und Architektur“, sagt David Broniatowski, Hauptautor der Studie und außerordentlicher Professor für Ingenieurmanagement und Systemtechnik an der GW.

„Unsere Ergebnisse zeigen, dass das Entfernen von Inhalten oder das Ändern von Algorithmen wirkungslos sein kann, wenn dadurch nicht die Aufgabe der Plattform geändert wird – Community-Mitglieder in die Lage zu versetzen, sich über gemeinsame Interessen – in diesem Fall Impfzögerlichkeit – zu vernetzen und Informationen zu finden, die sie motivieren suchen.“

Facebook ist darauf ausgelegt, Communities rund um die Dinge aufzubauen, die den Menschen wichtig sind. Zu diesem Zweck nutzt es verschiedene Architekturfunktionen, darunter Fanseiten, die für Marken und Prominente aus der Community werben und es so einer relativ kleinen Gruppe von Influencern ermöglichen, ein großes Publikum zu erreichen.

Diese Influencer können dann Gruppen bilden – die ausdrücklich darauf ausgelegt sind, Communities aufzubauen –, in denen Community-Mitglieder Informationen austauschen können, einschließlich der Frage, wie sie auf Fehlinformationen oder andere überzeugende Inhalte außerhalb der Plattform zugreifen können.

Diese Gruppenmitglieder und insbesondere Gruppenadministratoren (die häufig Seiteninhalte erstellen) können dann die Newsfeed-Algorithmen von Facebook nutzen, um sicherzustellen, dass diese Informationen denjenigen zur Verfügung stehen, die sie sehen möchten.

Die Forscher stellten fest, dass Facebook während der COVID-19-Pandemie zwar erhebliche Anstrengungen unternommen hat, um zahlreiche impfgegnerische Inhalte zu entfernen, das allgemeine Engagement für impfgegnerische Inhalte jedoch nicht über frühere Trends hinaus abgenommen hat – und in einigen Fällen sogar zugenommen hat.

„Dieser Befund – dass sich die Menschen vor und nach Facebooks umfassenden Bemühungen zur Entfernung von Impffehlinformationen gleichermaßen häufig mit Fehlinformationen über Impfstoffe beschäftigten – ist unglaublich besorgniserregend. Sie zeigt die Schwierigkeit, mit der wir als Gesellschaft konfrontiert sind, wenn es darum geht, Gesundheitsfehlinformationen aus dem öffentlichen Raum zu entfernen“, sagt Lorien Abroms, Studie Autor und Professor für öffentliche Gesundheit an der Milken Institute School of Public Health von GW.

Bei den nicht entfernten Inhalten gab es eine Zunahme von Links zu plattformunabhängigen Websites mit geringer Glaubwürdigkeit und Links zu Fehlinformationen auf „alternativen“ Social-Media-Plattformen wie Gab und Rumble, insbesondere in Impfgegnern.

Darüber hinaus wurden die verbleibenden Impfgegner-Inhalte auf Facebook zunehmend – und nicht weniger – falsch informativ und enthielten sensationslüsterne Falschbehauptungen über Nebenwirkungen von Impfstoffen, die oft zu neu waren, als dass sie in Echtzeit überprüft werden könnten. Es habe auch „Kollateralschäden“ gegeben, sagen die Forscher, da möglicherweise auch impfbefürwortende Inhalte aufgrund der Richtlinien der Plattform entfernt worden seien und insgesamt impfbezogene Inhalte politisch stärker polarisiert worden seien.

Darüber hinaus nutzten Produzenten von Impfgegnern die Plattform effektiver als Produzenten von Impfgegnern. Obwohl beide über große Seitennetzwerke verfügten, koordinierten die Produzenten von Anti-Impf-Inhalten die Bereitstellung von Inhalten über Seiten, Gruppen und Newsfeeds der Benutzer hinweg effektiver.

Selbst als Facebook seine Algorithmen optimierte und Inhalte und Konten entfernte, um Fehlinformationen über Impfstoffe zu bekämpfen, wurde den Forschern zufolge die Architektur der Plattform zurückgedrängt.

„Stellen Sie sich die Architektur von Facebook wie ein Gebäude vor. Ein Flughafen ist dafür konzipiert, Menschen einfach und sicher zu den Gates zu bringen, und ein Stadion ist dafür konzipiert, eine Gruppe von Menschen sicher für eine Show zusammenzubringen. Wenn diese Gebäude nicht dafür konzipiert wären „Wenn man Reisen und Unterhaltung gegen Sicherheit und Schutz abwägt, kann es passieren, dass Menschen regelmäßig verletzt werden“, sagt Broniatowski.

„Stellen Sie sich jetzt die Struktur von Facebook genauso vor: Sie soll es motivierten Menschen ermöglichen, Communities aufzubauen und problemlos Informationen zu jedem Thema auszutauschen.“

„Personen, die hoch motiviert sind, Impfgegner-Inhalte zu finden und zu teilen, nutzen das System einfach so, wie es dafür konzipiert ist, was es schwierig macht, diese Verhaltensweisen mit Bedenken hinsichtlich der öffentlichen Gesundheit oder anderer öffentlicher Sicherheit in Einklang zu bringen. Man muss die Architektur ändern.“ wenn du dieses Gleichgewicht schaffen willst.

Broniatowskis Arbeit legt nahe, dass Designer von Social-Media-Plattformen die öffentliche Gesundheit und Sicherheit fördern könnten, indem sie gemeinsam eine Reihe von „Bauvorschriften“ für ihre Plattformen entwickeln, die auf wissenschaftlichen Erkenntnissen basieren, um Online-Schäden zu reduzieren.

„Bauarchitekten müssen die Entwurfsziele eines Gebäudes gegen die Einhaltung von Regeln abwägen, um die Menschen zu schützen, die sie nutzen“, erklärt er.

„Sie müssen so gestaltet sein, dass sie die öffentliche Sicherheit fördern, indem sie die Brand-, Überschwemmungs-, Umweltverschmutzungs- und Erdbebenvorschriften einhalten. Sie müssen die Sicherheit fördern, indem sie Designmerkmale wie gut markierte, barrierefreie Ein- und Ausgänge und Drehkreuze integrieren, um Vandalismus und Panik zu verhindern.“ , Terrorismus und Unruhen. Sie müssen die öffentliche Gesundheit fördern, indem sie die Vorschriften für Sanitär-, Sanitär- und Lüftungsanlagen einhalten, und sie müssen so gestaltet sein, dass sie kommunale Vorschriften wie Lärm- und andere Belästigungsverordnungen respektieren.“

„Diese Regeln werden in der Regel durch eine Partnerschaft zwischen Industrie, Regierung und Gemeinschaftsorganisationen entwickelt und basieren auf solider Wissenschaft und Praxis. Governance-Strategien könnten diese Partnerschaften erleichtern und die Wissenschaft unterstützen.“

Den Forschern zufolge ist dies die erste und einzige wissenschaftliche Bewertung der Wirksamkeit des Versuchs der weltweit größten Social-Media-Plattform, Fehlinformationen und falsch informative Konten systematisch zu entfernen.

Mehr Informationen:
David Broniatowski, Die Wirksamkeit der Facebook-Richtlinien und -Architektur zur Fehlinformation von Impfstoffen während der COVID-19-Pandemie, Wissenschaftliche Fortschritte (2023). DOI: 10.1126/sciadv.adh2132. www.science.org/doi/10.1126/sciadv.adh2132

Zur Verfügung gestellt von der George Washington University

ph-tech