Social-Media-Giganten Meta und X (ehemals Twitter) genehmigten Anzeigen, die auf Benutzer in Deutschland mit gewalttätigen Anti-Muslim- und Anti-Juden-Hassreden im Vorfeld der Bundeswahlen des Landes abzielen, laut neuen Forschungsergebnissen von Ekoeine gemeinnützige Kampagnengruppe für Unternehmensverantwortung.
Die Forscher der Gruppe testeten, ob die beiden Plattformen AD-Überprüfungssysteme Einsendungen für Anzeigen, die hasserfüllte und gewalttätige Nachrichten enthalten, vor einer Wahl, bei der die Einwanderung im Mittelpunkt des politischen Diskurses im Mainstream-Diskurs im Mittelpunkt stand, genehmigen oder ablehnen würden-einschließlich Anzeigen, die Anti-Muslim-Schrägen enthalten. Forderung, dass Einwanderer in Konzentrationslagern eingesperrt oder vergast werden; und Ai-generierte Bilder von Verbrennung von Moscheen und Synagogen.
Die meisten Testanzeigen wurden innerhalb weniger Stunden nach der Überprüfung Mitte Februar zugelassen. Die Bundeswahlen Deutschlands werden am Sonntag, dem 23. Februar, stattfinden.
Hassreden -Anzeigen geplant
EKO sagte, X genehmigte alle 10 Hass -Rede -Anzeigen, die seine Forscher nur wenige Tage vor den Bundeswahlen eingereicht haben, während Meta die Hälfte (fünf Anzeigen) für das Laufen auf Facebook (und möglicherweise auch Instagram) genehmigte – obwohl es die anderen abgelehnt hatte fünf.
Der Grund, warum Meta für die fünf Ablehnungen vorsah, wies die Plattform an, dass es Risiken politischer oder sozialer Sensibilität geben könnte, die die Abstimmung beeinflussen könnten.
Zu den fünf von Meta zugelassenen Anzeigen gehörten jedoch gewalttätige Hassreden, die muslimische Flüchtlinge mit einem „Virus“, „Verspieler“ oder „Nagetieren“ vergleichbar, muslimische Einwanderer als „Vergewaltiger“ und forderten sie, sterilisiert, verbrannt oder verlegt zu werden. Meta genehmigte auch eine Anzeige, in der Synagogen angezündet werden sollen, um „die globalistische jüdische Rattenagenda zu stoppen“.
Als Nebenbetreuung sagt EKO, dass keiner der mit AI-generierten Bilder die Hass-Rede-Anzeigen veranschaulichen, die als künstlich erzeugt bezeichnet wurde-und doch die Hälfte der zehn Anzeigen wurde von Meta noch zugelassen, unabhängig davon, wie das Unternehmen eine hatte Richtlinien, die die Offenlegung der Verwendung von AI -Bildern erfordert für Anzeigen über soziale Themen, Wahlen oder Politik.
X genehmigte inzwischen alle fünf dieser hasserfüllten Anzeigen – und weitere fünf, die ähnlich gewalttätige Hassreden auf Muslime und Juden enthielten.
Zu diesen zusätzlichen zugelassenen Anzeigen gehörten Messaging, die „Nagetier“ Einwanderer angreift, von denen die Ad -Kopie behauptete wirtschaftliche Macht.
Die letztere Anzeige wurde mit Ai-erzeugten Bildern kombiniert, die eine Gruppe schattiger Männer darstellten, die an einem Tisch saßen, der von Stapeln von Goldstangen umgeben war, mit einem Davidstern an der Wand über ihnen-mit den Bildern, die sich auch stark in antisemitische Tropen lehnen.
Eine weitere zugelassene Anzeige X enthielt einen direkten Angriff auf die SPD, die Partei mit Centre-Links, die derzeit die deutsche Koalitionsregierung führt, mit einer falschen Behauptung, dass die Partei 60 Millionen muslimische Flüchtlinge aus dem Nahen Osten aufnehmen möchte, bevor sie versuchen, es zu versuchen, es zu versuchen eine gewalttätige Antwort aufschlagen. X hat auch ordnungsgemäß eine Anzeige geplant, die darauf hindeutet, dass „Linke“ „offene Grenzen“ wollen und die Ausrottung von Muslimen „Vergewaltiger“ fordern.
Elon Musk, der Eigentümer von X, hat die Social -Media -Plattform genutzt, auf der er fast 220 Millionen Follower hat, um bei den deutschen Wahlen persönlich einzugreifen. In Ein Tweet im DezemberEr forderte die deutschen Wähler auf, die äußerste rechte AFD -Partei zu unterstützen, um „Deutschland zu retten“. Er hat auch einen Livestream mit dem Anführer des AFD, Alice Weidel, auf X. veranstaltet.
Die Forscher von EKO haben alle Testanzeigen behindert, bevor alle zugelassen worden waren, um sicherzustellen, dass keine Benutzer der Plattform der gewalttätigen Hassrede ausgesetzt sind.
Es heißt, die Tests heben grelle Fehler mit dem Ansatz der Anzeigenplattformen zur Moderation von Inhalten hervor. In der Tat ist im Fall X nicht klar, ob die Plattform eine Moderation von Anzeigen durchführt, da alle zehn gewalttätigen Hassreden -Anzeigen schnell für die Anzeige zugelassen wurden.
Die Ergebnisse deuten auch darauf hin, dass die Anzeigenplattformen aufgrund der Verteilung gewaltsamer Hassreden Einnahmen erzielen könnten.
EUs Digital Services im Rahmen
Die Tests von EKO deuten darauf hin, dass keine Plattform die Verbote für Hassreden ordnungsgemäß durchsetzen. Darüber hinaus gelangte Eko im Fall von Meta nach dem Dirigieren die gleiche Schlussfolgerung ein ähnlicher Test Im Jahr 2023 vor neuen EU -Online -Governance -Regeln, die vorschlagen, dass das Regime keine Auswirkungen darauf hat, wie es funktioniert.
„Unsere Ergebnisse deuten darauf hin, dass die KI-gesteuerten AD-Moderationssysteme von Meta grundlegend gebrochen bleiben, obwohl das Digital Services Act (DSA) nun in vollem Umfang wirkt“, sagte ein EKO-Sprecher gegenüber Tech.
„Anstatt den AD-Überprüfungsprozess oder seine Hass-Sprachrichtlinien zu stärken, scheint Meta auf ganzer Linie zurückzukehren“, fügte sie hinzu und wies auf die jüngste Ankündigung des Unternehmens hinsichtlich der Rückdrehung der Mäßigung und der Überprüfung von Richtlinien des Unternehmens als Zeichen der „aktiven Regression“ hin Sie schlugen vor, einen direkten Kollisionskurs mit DSA -Regeln für systemische Risiken zu bringen.
EKO hat seine jüngsten Erkenntnisse der Europäischen Kommission vorgelegt, die die Durchsetzung der wichtigsten Aspekte der DSA auf dem Paar Social -Media -Riesen überwacht. Es sagte auch, dass es die Ergebnisse mit beiden Unternehmen geteilt habe, aber weder antwortete.
Die EU hat bereits DSA -Ermittlungen zu Meta und X eröffnet, einschließlich Bedenken hinsichtlich der Wahlsicherheit und des illegalen Inhalts, aber die Kommission muss diese Verfahren noch abschließen. Im April sagte es jedoch, dass es Meta von unzureichender Mäßigung politischer Anzeigen vermutet.
Eine vorläufige Entscheidung über einen Teil seiner DSA -Untersuchung zu X, die im Juli angekündigt wurde, beinhaltete den Verdacht, dass die Plattform nicht den Anzeigentransparenzregeln der Verordnung entspricht. Die vollständige Untersuchung, die im Dezember 2023 begann, betrifft jedoch auch illegale Inhaltsrisiken, und die EU muss noch keine Erkenntnisse zum Großteil der Sonde über ein Jahr später eintreten.
Bestätigte Verstöße gegen die DSA können Strafen von bis zu 6% des globalen jährlichen Umsatzes anziehen, während eine systemische Nichteinhaltung sogar dazu führen kann, dass regionaler Zugang zu Verstößen gegen Plattformen vorübergehend blockiert wird.
Aber vorerst nimmt sich die EU immer noch Zeit, um sich bei den Meta- und X -Sonden zu entscheiden – bis endgültige Entscheidungen – alle DSA -Sanktionen in der Luft bleiben.
Inzwischen dauert es inzwischen nur wenige Stunden, bis die deutschen Wähler in die Umfragen gehen-und eine wachsende Gruppe von Forschungsergebnissen der Zivilgesellschaft deutet darauf hin, dass das Flaggschiff der EU-Online-Governance-Regulierung den demokratischen Prozess der wichtigsten EU-Wirtschaft aus einer Reihe von technisch getriebenen Techs nicht geschützt hat Bedrohungen.
Anfang dieser Woche veröffentlichte Global Witness die Ergebnisse von Tests von X und Tiktoks algorithmischen „für Sie“ -Feeds in Deutschland, die darauf hindeuten, dass die Plattformen voreingenommen sind, um AFD -Inhalte im Vergleich zu Inhalten anderer politischer Parteien zu fördern. Die Forscher der Zivilgesellschaft haben auch den Zugang X vorgeworfen, den Zugang zu Daten zu blockieren, um zu verhindern, dass sie im Vorfeld der deutschen Umfrage Wahlsicherheitsrisiken untersuchen-der Zugang zur DSA soll ermöglichen.
„Die Europäische Kommission hat wichtige Schritte unternommen, indem sie DSA -Ermittlungen sowohl für Meta als auch X eröffnet haben. Jetzt müssen die Kommission starke Maßnahmen ergreifen, um die im Rahmen dieser Ermittlungen ausgestellten Bedenken auszusprechen“, sagte der Sprecher von EKO ebenfalls.
„Unsere Ergebnisse zeigen neben steigenden Beweisen anderer zivilgesellschaftlicher Gruppen, dass Big Tech seine Plattformen nicht freiwillig aufräumen wird. META und X erlauben weiterhin illegale Hassreden, Anstiftungen für Gewalt und Wahl -Desinformation trotz ihrer rechtlichen Verpflichtungen im Rahmen der DSA “, fügte der Sprecher hinzu. (Wir haben den Namen des Sprechers zurückgehalten, um Belästigung zu verhindern.)
„Die Aufsichtsbehörden müssen starke Maßnahmen ergreifen-beide bei der Durchsetzung der DSA, beispielsweise beispielsweise auch bei der Umsetzung von Maßnahmen vor der Wahlen. Dies könnte das Ausschalten von Profile-basierten Empfehlungssystemen unmittelbar vor den Wahlen und die Implementierung anderer angemessener „Break-Glass“ -Maßnahmen umfassen, um die algorithmische Verstärkung von Grenzinhalten wie hasserfüllte Inhalte bei den Vor-Up-Wahlen zu verhindern. “
Die Kampagnengruppe warnt auch davor, dass die EU nun Druck der Trump -Verwaltung ausgesetzt ist, ihren Ansatz zur Regulierung von Big Tech zu mildern. „Im gegenwärtigen politischen Klima besteht die wirkliche Gefahr, dass die Kommission diese neuen Gesetze nicht vollständig als Konzession für die USA durchsetzt“, schlägt sie vor.