Ein tiefer Einblick in die Algorithmen von Meta zeigt, dass es für die politische Polarisierung in Amerika keine einfache Lösung gibt

Den leistungsstarken Algorithmen, die Facebook und Instagram zur Bereitstellung von Inhalten für Benutzer verwenden, wird zunehmend vorgeworfen, Fehlinformationen und politische Polarisierung zu verstärken. Doch eine Reihe bahnbrechender Studien, die am Donnerstag veröffentlicht wurden, legen nahe, dass die Bewältigung dieser Herausforderungen nicht so einfach ist wie die Optimierung der Software der Plattformen.

Die vier Forschungsarbeiten, veröffentlicht in Wissenschaft Und Naturzeigen auch das Ausmaß der politischen Echokammern auf Facebook, wo Konservative und Liberale auf unterschiedliche Informationsquellen angewiesen sind, mit gegnerischen Gruppen interagieren und deutlich unterschiedliche Mengen an Fehlinformationen konsumieren.

Algorithmen sind die automatisierten Systeme, die Social-Media-Plattformen verwenden, um Benutzern Inhalte vorzuschlagen, indem sie Annahmen treffen, die auf den Gruppen, Freunden, Themen und Schlagzeilen basieren, auf die ein Benutzer in der Vergangenheit geklickt hat. Algorithmen zeichnen sich zwar dadurch aus, dass sie die Nutzer bei Laune halten, sie stehen jedoch in der Kritik, Fehlinformationen und ideologische Inhalte zu verstärken, die die politischen Spaltungen im Land verschärft haben.

Vorschläge zur Regulierung dieser Systeme gehören zu den am meisten diskutierten Ideen, um die Rolle sozialer Medien bei der Verbreitung von Fehlinformationen und der Förderung der Polarisierung anzugehen. Doch als die Forscher während der Wahl 2020 die Algorithmen für einige Nutzer änderten, sahen sie kaum einen Unterschied.

„Wir stellen fest, dass Algorithmen einen enormen Einfluss auf die Erfahrungen der Menschen auf der Plattform haben und dass es bei der Berichterstattung über politische Nachrichten eine erhebliche ideologische Trennung gibt“, sagte Talia Jomini Stroud, Direktorin des Center for Media Engagement an der University of Texas in Austin und eine der Leiterinnen des Studiums. „Wir stellen auch fest, dass populäre Vorschläge zur Änderung von Social-Media-Algorithmen die politische Einstellung nicht beeinflusst haben.“

Während politische Unterschiede eine Funktion jeder gesunden Demokratie sind, kommt es zu Polarisierung, wenn diese Unterschiede beginnen, die Bürger voneinander und von den gesellschaftlichen Bindungen, die sie teilen, zu trennen. Es kann das Vertrauen in demokratische Institutionen und die freie Presse untergraben.

Eine erhebliche Spaltung kann das Vertrauen in die Demokratie oder demokratische Institutionen untergraben und zu einer „affektiven Polarisierung“ führen, wenn die Bürger beginnen, einander eher als Feinde denn als legitime Opposition zu betrachten. Es ist eine Situation, die zu Gewalt führen kann, wie es der Fall war, als Anhänger des damaligen Präsidenten Donald Trump am 6. Januar 2021 das US-Kapitol angriffen.

Um die Analyse durchzuführen, erhielten die Forscher durch eine Zusammenarbeit mit Meta, den Eigentümern der Plattformen, beispiellosen Zugriff auf Facebook- und Instagram-Daten aus der Wahl 2020. Die Forscher sagen, Meta habe keine Kontrolle über ihre Ergebnisse ausgeübt.

Als sie den Algorithmus durch eine einfache chronologische Auflistung der Posts von Freunden ersetzten – eine Option, die Facebook den Nutzern kürzlich zur Verfügung stellte –, hatte dies keinen messbaren Einfluss auf die Polarisierung. Als sie die Reshare-Option von Facebook deaktivierten, die es Benutzern ermöglicht, virale Beiträge schnell zu teilen, sahen die Benutzer deutlich weniger Nachrichten aus nicht vertrauenswürdigen Quellen und insgesamt weniger politische Nachrichten, aber es gab keine wesentlichen Änderungen an ihrer politischen Einstellung.

Ebenso hatte die Reduzierung der Inhalte, die Facebook-Nutzer von Konten mit der gleichen ideologischen Ausrichtung erhalten, keine nennenswerten Auswirkungen auf die Polarisierung, die Anfälligkeit für Fehlinformationen oder extremistische Ansichten.

Zusammenfassend deuten die Ergebnisse darauf hin, dass Facebook-Nutzer nach Inhalten suchen, die ihren Ansichten entsprechen, und dass die Algorithmen dabei helfen, indem sie „es den Menschen einfacher machen, das zu tun, wozu sie geneigt sind“, so David Lazer, ein Professor der Northeastern University, der daran gearbeitet hat auf allen vier Papieren.

Durch die vollständige Eliminierung des Algorithmus konnte die Zeit, die Benutzer entweder auf Facebook oder Instagram verbrachten, drastisch reduziert und gleichzeitig ihre Zeit auf TikTok, YouTube oder anderen Websites erhöht werden. Dies zeigt, wie wichtig diese Systeme für Meta in der zunehmend überfüllten Social-Media-Landschaft sind.

Als Reaktion auf die Papiere sagte Nick Clegg, Präsident für globale Angelegenheiten bei Meta, die Ergebnisse zeigten: „Es gibt kaum Anhaltspunkte dafür, dass Schlüsselfunktionen der Plattformen von Meta allein eine schädliche ‚affektive‘ Polarisierung verursachen oder einen nennenswerten Einfluss auf wichtige politische Einstellungen, Überzeugungen oder Verhaltensweisen haben.“ .“

Katie Harbath, ehemalige Direktorin für öffentliche Ordnung bei Facebook, sagte, sie hätten die Notwendigkeit einer umfassenderen Forschung zu sozialen Medien aufgezeigt und Annahmen über die Rolle, die soziale Medien in der amerikanischen Demokratie spielen, in Frage gestellt. Harbath war an der Recherche nicht beteiligt.

„Die Menschen wollen eine einfache Lösung, und diese Studien zeigen, dass sie nicht einfach ist“, sagte Harbath, Mitarbeiter am Bipartisan Policy Center und CEO des Technologie- und Politikunternehmens Anchor Change. „Für mich bekräftigt es, dass es bei der Polarisierung oder den politischen Überzeugungen der Menschen um viel mehr geht als nur um soziale Medien.“

Eine Organisation, die Metas Rolle bei der Verbreitung von Fehlinformationen über Wahlen und Abstimmungen kritisierte, bezeichnete die Untersuchung als „begrenzt“ und stellte fest, dass es sich nur um eine Momentaufnahme handelte, die mitten in einer Wahl aufgenommen wurde, und die Auswirkungen jahrelanger sozialer Kontakte nicht berücksichtigte Fehlinformationen der Medien.

Free Press, eine gemeinnützige Organisation, die sich für Bürgerrechte in Technologie und Medien einsetzt, bezeichnete Metas Verwendung der Forschung als „kalkulierten Spin“.

„Meta-Führungskräfte nutzen begrenzte Forschungsergebnisse als Beweis dafür, dass sie nicht mitverantwortlich für die zunehmende politische Polarisierung und Gewalt sein sollten“, sagte Nora Benavidez, leitende Rechtsanwältin der Gruppe und Direktorin für digitale Justiz und Bürgerrechte, in einer Erklärung. „Studien, die Meta befürwortet und die in engen Zeiträumen fragmentarisch aussehen, sollten nicht als Entschuldigung dafür dienen, die Verbreitung von Lügen zuzulassen.“

Die vier Studien zeigten auch das Ausmaß der ideologischen Unterschiede zwischen Facebook-Nutzern und die unterschiedliche Art und Weise, wie Konservative und Liberale die Plattform nutzen, um Nachrichten und Informationen über Politik zu erhalten.

Konservative Facebook-Nutzer konsumieren eher Inhalte, die von Faktenprüfern als Fehlinformationen eingestuft wurden. Sie haben auch mehr Quellen zur Auswahl. Die Analyse ergab, dass sich unter den Websites, die in politischen Facebook-Posts enthalten sind, weitaus mehr an Konservative als an Liberale richtet.

Insgesamt waren 97 % der politischen Nachrichtenquellen auf Facebook, die von Faktenprüfern als Anbieter von Fehlinformationen identifiziert wurden, bei Konservativen beliebter als bei Liberalen.

Die Autoren der Papiere erkannten einige Einschränkungen ihrer Arbeit an. Sie stellten zwar fest, dass die Änderung der Facebook-Algorithmen kaum Auswirkungen auf die Polarisierung hatte, weisen jedoch darauf hin, dass die Studie nur wenige Monate während der Wahl 2020 abdeckte und daher die langfristigen Auswirkungen, die Algorithmen seit Beginn ihres Einsatzes vor Jahren hatten, nicht beurteilen kann.

Sie stellten außerdem fest, dass die meisten Menschen ihre Nachrichten und Informationen aus verschiedenen Quellen beziehen – Fernsehen, Radio, Internet und Mundpropaganda – und dass diese Interaktionen auch die Meinung der Menschen beeinflussen könnten. Viele in den Vereinigten Staaten machen die Nachrichtenmedien für die Verschärfung der Polarisierung verantwortlich.

Zur Vervollständigung ihrer Analysen analysierten die Forscher Daten von Millionen von Facebook- und Instagram-Nutzern und befragten bestimmte Nutzer, die einer Teilnahme zustimmten. Aus Datenschutzgründen wurden alle identifizierenden Informationen über bestimmte Benutzer entfernt.

Lazer, der Northeastern-Professor, sagte, er sei zunächst skeptisch gewesen, ob Meta den Forschern den Zugang gewähren würde, den sie brauchten, sei aber angenehm überrascht gewesen. Er sagte, die vom Unternehmen auferlegten Bedingungen stünden im Zusammenhang mit berechtigten rechtlichen und datenschutzrechtlichen Bedenken. Weitere Studien aus der Zusammenarbeit werden in den kommenden Monaten veröffentlicht.

„Es gibt keine solche Studie“, sagte er über die am Donnerstag veröffentlichte Studie. „Es gab viel Gerede darüber, aber in vielerlei Hinsicht war die Forschung recht begrenzt.“

Mehr Informationen:
Andrew M. Guess, Wie wirken sich Social-Media-Feed-Algorithmen auf Einstellungen und Verhalten im Wahlkampf aus?, Wissenschaft (2023). DOI: 10.1126/science.abp9364. www.science.org/doi/10.1126/science.abp9364

Sandra González-Bailón, Asymmetrische ideologische Segregation bei der Exposition gegenüber politischen Nachrichten auf Facebook, Wissenschaft (2023). DOI: 10.1126/science.ade7138. www.science.org/doi/10.1126/science.ade7138

Andrew M. Guess, Reshares in sozialen Medien verstärken politische Nachrichten, haben aber keinen erkennbaren Einfluss auf Überzeugungen oder Meinungen. Wissenschaft (2023). DOI: 10.1126/science.add8424. www.science.org/doi/10.1126/science.add8424

Brendan Nyhan, Gleichgesinnte Quellen auf Facebook sind weit verbreitet, aber nicht polarisierend, Natur (2023). DOI: 10.1038/s41586-023-06297-w. www.nature.com/articles/s41586-023-06297-w

© 2023 The Associated Press. Alle Rechte vorbehalten. Dieses Material darf ohne Genehmigung nicht veröffentlicht, ausgestrahlt, umgeschrieben oder weitergegeben werden.

ph-tech