YouTube empfiehlt eher Wahlbetrugsvideos für Nutzer, die bereits skeptisch gegenüber der Legitimität der Wahlen 2020 sind

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Videos über Wahlbetrug empfahl YouTube eher Nutzern, die ohnehin skeptisch gegenüber der Legitimität der US-Präsidentschaftswahl 2020 waren, zeigt eine neue Studie, die die Auswirkungen der Algorithmen der Seite untersucht.

Die Ergebnisse der Forschung, die in der Zeitschrift für Online-Vertrauen und -Sicherheitzeigte, dass denjenigen, die der Legitimität der Wahl am skeptischsten gegenüberstanden, dreimal so viele Videos im Zusammenhang mit Wahlbetrug gezeigt wurden wie den am wenigsten skeptischen Teilnehmern – ungefähr 8 zusätzliche Empfehlungen von ungefähr 400 Videos, die jedem Studienteilnehmer vorgeschlagen wurden.

Während die Gesamtprävalenz dieser Art von Videos gering war, zeigen die Ergebnisse die Folgen eines Empfehlungssystems, das Benutzern die gewünschten Inhalte liefert. Für diejenigen, die am meisten über möglichen Wahlbetrug besorgt sind, bietet das Zeigen verwandter Inhalte einen Mechanismus, durch den Fehlinformationen, Desinformationen und Verschwörungen ihren Weg zu denen finden können, die ihnen am wahrscheinlichsten glauben, beobachten die Autoren der Studie. Wichtig ist, dass diese Muster den unabhängigen Einfluss des Algorithmus darauf widerspiegeln, was echten Benutzern während der Nutzung der Plattform angezeigt wird.

„Unsere Ergebnisse decken die nachteiligen Folgen von Empfehlungsalgorithmen auf und stellen die Ansicht in Frage, dass Online-Informationsumgebungen ausschließlich durch die Wahl der Benutzer bestimmt werden“, sagt James Bisbee, der die Studie als Postdoktorand am Center for Social Media and Politics der New York University leitete (CSMaP).

Fast zwei Jahre nach den Präsidentschaftswahlen von 2020 glauben viele Amerikaner, insbesondere Republikaner, nicht an die Legitimität des Ergebnisses.

„Etwa 70 % der Republikaner sehen Biden nicht als legitimen Gewinner“, trotz „mehrerer Nachzählungen und Prüfungen, die Joe Bidens Sieg bestätigten“, schrieb PolitiFact des Poynter Institute Anfang dieses Jahres.

Obwohl bekannt ist, dass Social-Media-Plattformen wie YouTube Inhalte basierend auf ihren Suchpräferenzen an Benutzer weiterleiten, werden die Konsequenzen dieser Dynamik möglicherweise nicht vollständig erkannt.

In der CSMaP-Studie befragten die Forscher im November und Dezember 2020 mehr als 300 Amerikaner mit YouTube-Konten. Die Probanden wurden gefragt, wie besorgt sie über eine Reihe von Aspekten des Wahlbetrugs seien, darunter das Auszählen betrügerischer Stimmzettel, das Verwerfen gültiger Stimmzettel, Einmischung ausländischer Regierungen und Abstimmungen von Nicht-US-Bürgern, neben anderen Fragen.

Diese Teilnehmer wurden dann gebeten, eine Browsererweiterung zu installieren, die die Liste der ihnen angezeigten Empfehlungen aufzeichnen würde. Die Probanden wurden dann angewiesen, auf ein zufällig zugewiesenes YouTube-Video (das „Seed“-Video) und dann auf eine der Empfehlungen zu klicken, die ihnen gemäß einer zufällig zugewiesenen „Traversal-Regel“ gezeigt wurden. Beispielsweise müssten Benutzer, denen die „zweite Traversal-Regel“ zugewiesen wurde, immer auf das zweite Video in der Liste der angezeigten Empfehlungen klicken, unabhängig von dessen Inhalt. Indem das Benutzerverhalten auf diese Weise eingeschränkt wurde, konnten die Forscher den Einfluss des Empfehlungsalgorithmus darauf isolieren, was echten Benutzern in Echtzeit vorgeschlagen wurde.

Die Probanden gingen dann durch eine Folge von YouTube-empfohlenen Videos, sodass die Forscher beobachten konnten, was der YouTube-Algorithmus seinen Nutzern vorschlug. Anschließend verglichen Bisbee und seine Kollegen die Anzahl der Videos über Wahlbetrug bei der US-Präsidentschaftswahl 2020, die Teilnehmern empfohlen wurden, die der Legitimität der Wahl skeptischer gegenüberstanden, mit denen, die weniger skeptischen Teilnehmern empfohlen wurden. Diese Ergebnisse zeigten, dass Wahlskeptikern im Vergleich zu nicht skeptischen Teilnehmern (12 vs. 4) im Durchschnitt acht zusätzliche Videos über möglichen Betrug bei der US-Wahl 2020 empfohlen wurden.

„Viele glauben, dass automatisierte Empfehlungsalgorithmen wenig Einfluss auf Online-Echokammern haben, in denen Benutzer nur Inhalte sehen, die ihre bereits bestehenden Ansichten bestätigen“, beobachtet Bisbee, jetzt Assistenzprofessor an der Vanderbilt University.

„Unsere Studie legt jedoch nahe, dass der Empfehlungsalgorithmus von YouTube feststellen konnte, welche Nutzer sich eher Sorgen über Betrug bei der US-Präsidentschaftswahl 2020 machten, und diesen Nutzern dann bis zu dreimal so viele Videos über Wahlbetrug vorschlug als diesen weniger besorgt über Wahlbetrug. Dies unterstreicht die Notwendigkeit weiterer Untersuchungen darüber, wie undurchsichtige Empfehlungsalgorithmen auf einer Ausgabe-zu-Ausgabe-Basis funktionieren.“

Mehr Informationen:
James Bisbee et al, Election Fraud, YouTube, and Public Perception of the Legitimacy of President Biden, Zeitschrift für Online-Vertrauen und -Sicherheit (2022). doi.org/10.54501/jots.v1i3.60

Zur Verfügung gestellt von der New York University

ph-tech