Studie über Tiktok, x ‚für dich‘ Feeds in Deutschland findet rechtsextreme politische Vorurteile vor den Bundeswahlen

Empfehlungsalgorithmen, die von Social-Media-Giganten Tiktok und X betrieben wurden, haben in Deutschland Beweise für eine erhebliche rechtsextreme politische Voreingenommenheit vor einer Bundeswahl, die am Sonntag stattfindet, laut Angaben Neue Forschung durchgeführt von Globaler Zeuge.

Die Nichtregierungsorganisation (NGO) führte eine Analyse von Social-Media-Inhalten durch, die neue Benutzer über algorithmisch sortierte „für Sie“ -Feeds angezeigt wurden. Beide Plattformen wurden stark auf die Verstärkung von Inhalten zu finden, die die rechtsextreme AFD-Partei in algorithmisch programmierten Feeds bevorzugen.

Die Tests des globalen Zeugen identifizierten die extremste Verzerrung von Tiktok, bei denen 78% der politischen Inhalte, die algorithmisch für seine Testkonten empfohlen wurden, und von den Konten stammten, die die Testbenutzer nicht folgten, unterstützte die AFD -Partei. (Diese Zahl stellt fest, dass die Unterstützung, die die Partei in der aktuellen Umfrage erreicht, bei weitem die Unterstützung von rund 20% der deutschen Wähler anzieht.)

Auf X stellte Global Witness fest, dass 64% dieser empfohlenen politischen Inhalte die AFD unterstützten.

Testen auf allgemeine links- oder rechtsgerichtete politische Voreingenommenheit in den algorithmischen Empfehlungen der Plattformen deuten darauf hin, dass unparteiische Social-Media-Nutzer in Deutschland mehr als doppelt so viel Inhalte in den rechtsgerichteten Inhalten ausgesetzt sind wie linksgerichtete Inhalte in der führen zu den Bundeswahlen des Landes.

Auch hier zeigte Tiktok laut Erkenntnissen den größten rechten Schiefel und zeigte 74% der Fälle rechtsgerichtete Inhalte. Obwohl X nicht weit zurück war – bei 72%.

Das Instagram von Meta wurde ebenfalls getestet und sich über eine Reihe von drei Tests, die die NGO leitete, nach rechts lehnt. Aber die in den Tests gezeigte politische Verzerrung war niedriger, wobei 59% des politischen Inhalts rechtsgerichtet waren.

Testen Sie „für Sie“ auf politische Vorurteile

Um zu testen, ob die algorithmischen Empfehlungen der Social-Media-Plattformen politische Verzerrungen aufwiesen, haben die Forscher der NGOs drei Konten auf Tiktok und X sowie weitere drei auf meta-Eigentumsinstagram eingerichtet. Sie wollten den Geschmack von Content-Plattformen feststellen, die für Benutzer fördern würden, die ein überparteiliches Interesse am Konsum von politischen Inhalten zum Ausdruck brachten.

Um als unparteiische Benutzer zu präsentieren mit den Konten ihrer jeweiligen Führer (Friedrich Merz, Olaf Scholz, Alice Weidel, Robert Habeck).

Die Forscher, die die Testkonten betreiben Zeuge.

Anschließend sammelten und analysierten sie den Inhalt, den jede Plattform auf den Testkonten drückte, und stellten fest, dass es einen erheblichen rechten Schuss in dem, was algorithmisch für Benutzer vorangetrieben wurde, einen erheblichen rechten Schuss gab.

„Eines unserer Hauptanliegen ist, dass wir nicht wirklich wissen, warum wir die besonderen Inhalte vorgeschlagen haben, die wir waren“, sagte Ellen Judson, ein hochrangiger Aktivist, der digitale Bedrohungen für globaler Zeuge betrachte, in einem Interview gegenüber Tech. „Wir haben diese Beweise gefunden, die voreingenommen werden, aber es gibt immer noch einen Mangel an Transparenz von Plattformen darüber, wie ihre Empfehlungssysteme funktionieren.“

„Wir wissen, dass sie viele verschiedene Signale verwenden, aber genau wie diese Signale gewichtet werden und wie sie bewertet werden, wenn sie bestimmte Risiken erhöhen oder die Verzerrung erhöhen könnten, ist nicht sehr transparent“, fügte Judson hinzu.

„Meine beste Schlussfolgerung ist, dass dies eine Art unbeabsichtigte Nebenwirkung von Algorithmen ist, die auf dem Anstieg des Engagements basieren“, fuhr sie fort. „Und das ist das, was passiert, wenn Unternehmen im Wesentlichen Unternehmen für die Maximierung des Benutzers auf ihren Plattformen zu diesen Räumen für demokratische Diskussionen werden – es gibt einen Konflikt zwischen kommerziellen Imperativen und öffentlichem Interesse und demokratischen Zielen.“

Die Ergebnisse verfolgen mit anderen Social Media Research Global Witness in den jüngsten Wahlen in der UNSAnwesend IrlandUnd Rumänien. In der Tat haben verschiedene andere Studien in den letzten Jahren auch Hinweise darauf gefunden, dass Social -Media -Algorithmen recht Dieses Forschungsprojekt im letzten Jahr untersucht YouTube.

Sogar den ganzen Weg Zurück im Jahr 2021Eine interne Studie von Twitter-wie X früher, bevor Elon Musk die Plattform kaufte und umbenannt wurde-ergab, dass seine Algorithmen mehr rechtsgerichtete Inhalte als links fördern.

Trotzdem versuchen Social -Media -Firmen in der Regel, von Vorwürfen der algorithmischen Vorurteile zu tanzen. Nachdem globaler Zeuge seine Ergebnisse mit Tiktok geteilt hatte, schlug die Plattform vor, dass die Methodik der Forscher fehlerhaft war – argumentierte, es sei nicht möglich, Schlussfolgerungen der algorithmischen Verzerrung aus einer Handvoll Tests zu ziehen. „Sie sagten, dass es für reguläre Benutzer nicht repräsentativ sei, weil es nur wenige Testkonten waren“, bemerkte Judson.

X reagierte nicht auf die Ergebnisse des globalen Zeugen. Aber Musk hat darüber gesprochen, dass die Plattform allgemein ein Hafen für Redefreiheit wird. Obwohl dies tatsächlich seine Coda für die Förderung einer rechtsgerichteten Agenda sein kann.

Es ist sicherlich bemerkenswert, dass der Eigentümer von X die Plattform verwendet hat, um für die AFD persönlich zu kampagnen, bei den bevorstehenden Wahlen die Deutschen zu drängen, für die rechtsextrem half, das Profil der Partei zu erhöhen. Musk hat das am meisten folgende Konto auf X.

In Richtung algorithmischer Transparenz?

„Ich denke, der Transparenzpunkt ist wirklich wichtig“, sagt Judson. „Wir haben Musk gesehen [with Weidel] … [But] Wir wissen nicht, ob es tatsächlich eine algorithmische Veränderung gegeben hat, die dies widerspiegelt. “

„Wir hoffen, dass die Kommission einnehmen wird [our results] Als Beweis für die Untersuchung, ob etwas aufgetreten ist oder warum diese Voreingenommenheit vorliegt “, fügte sie hinzu und bestätigte, dass globaler Zeuge seine Ergebnisse mit EU -Beamten geteilt hat, die für die Durchsetzung der algorithmischen Rechenschaftsregeln des BLOC auf großen Plattformen verantwortlich sind.

Untersuchen Sie, wie proprietäre Inhalts-Sortieralgorithmen eine Herausforderung sind, da Plattformen in der Regel solche Details unter Verschluss behalten-und diese Code-Rezepte als kommerzielle Geheimnisse beanspruchen. Aus diesem Grund hat die Europäische Union das Digital Services Act (DSA) in den letzten Jahren – ihr Flaggschiff -Online -Governance -Regelbuch – erlassen, um diese Situation zu verbessern, indem sie Schritte zur Stärkung der Forschung im Bereich demokratischer und anderer systemischer Risiken für das öffentliche Interesse auf wichtigen Plattformen, einschließlich Instagram , Tiktok und X.

Die DSA enthält Maßnahmen, um wichtige Plattformen zu veranlassen, transparenter darüber zu sein, wie ihre Informationsformalgorithmen funktionieren, und um auf systemische Risiken zu reagieren, die auf ihren Plattformen auftreten können.

Obwohl das Regime bereits im August 2023 die drei Tech -Giganten auftrat, stellt Judson fest, dass einige Elemente davon noch nicht vollständig umgesetzt werden müssen.

Insbesondere ist Artikel 40 der Verordnung, der es ermöglichen soll, überprüfte Forscher den Zugang zu nicht öffentlichen Plattformdaten, um systemische Risiken zu untersuchen das Stück des Gesetzes.

Der Ansatz der EU mit Aspekten der DSA ist auch eine, die sich auf die selbstberichtenden Risiken und Durchsetzer der Plattformen stützt und dann ihre Berichte empfangen und überprüft. Daher ist die erste Gruppe von Risikoberichten von Plattformen möglicherweise die schwächste in Bezug auf die Offenlegungen, da Judson vorschlägt, da die Durchsetzer Zeit benötigen, um Offenlegungen zu analysieren, und wenn sie der Meinung sind, dass es Defizien gibt, plattieren Plattformen für umfassendere Berichterstattung.

Im Moment-ohne einen besseren Zugang zu Plattformdaten-sagt sie, dass Forscher im öffentlichen Interesse immer noch nicht sicher wissen, ob es in den sozialen Mainstream-Medien voreingenommen wird.

„Die Zivilgesellschaft beobachtet wie ein Falken, wenn der Zugang zu dem überprüften Forscher verfügbar ist“, fügt sie hinzu und hofft, dass dieses Stück des Puzzle des öffentlichen Interesses von DSA in diesem Quartal einrichten wird.

Die Verordnung hat es nicht geschafft, schnelle Ergebnisse zu liefern, wenn es um Bedenken an soziale Medien und demokratische Risiken geht. Der Ansatz der EU kann letztendlich auch als zu vorsichtig erwiesen werden, um die Nadel so schnell zu bewegen, wie sie sich bewegen muss, um mit algorithmisch verstärkten Bedrohungen Schritt zu halten. Es ist aber auch klar, dass die EU daran interessiert ist, Risiken zu vermeiden, beschuldigt zu werden, die Meinungsfreiheit zu krimpfen.

Die Kommission hat offene Ermittlungen zu allen drei Social -Media -Unternehmen, die von der globalen Zeugenforschung beteiligt sind. In diesem Wahlintegritätsbereich gab es bisher jedoch keine Durchsetzung. Es wurde jedoch kürzlich die Prüfung von Tiktok – und eröffnete ein frisches DSA -Verfahren darüber -, nachdem die Plattform eine wichtige Leitung für die Einmischung in den russischen Wahl bei den Präsidentschaftswahlen in Rumänien darstellte.

„Wir bitten die Kommission, zu untersuchen, ob es politische Vorurteile gibt“, fügt Judson hinzu. “[The platforms] Sagen Sie, dass es nicht gibt. Wir fanden Beweise dafür, dass es sein kann. Wir hoffen also, dass die Kommission ihre erhöhten Informationen verwenden würde[-gathering] Befugnisse, festzustellen, ob dies der Fall ist, und… besprechen Sie das, wenn dies der Fall ist. “

Die Pan-EU-Verordnung ermöglicht Durchsetzer, Strafen von bis zu 6% des globalen jährlichen Umsatzes für Verletzungen zu erhöhen, und blockieren sogar den Zugang zu Verstoß gegen Plattformen, wenn sie sich weigern, sich zu beachten.

tch-1-tech