Inmitten des eskalierenden Konflikts im Nahen Osten versäumt es X, Hassreden auf seiner Plattform zu moderieren, die antisemitische Verschwörungen fördern, Hitler preisen und Muslime und Palästinenser entmenschlichen.
In neue ForschungDas Center for Countering Digital Hate (CCDH), eine gemeinnützige Organisation, die Online-Hass und -Extremismus erforscht, hat eine Stichprobe von 200 X Posts auf 101 Konten gesammelt, die Hassreden enthielten. Jeder Beitrag wurde am 31. Oktober mithilfe der Berichtstools von
Dieses Tool lädt Benutzer dazu ein, Inhalte zu kennzeichnen und Informationen darüber bereitzustellen, in welche Verhaltenskategorie sie fallen, einschließlich einer Option für Hassreden. Zu diesen Meldemöglichkeiten gehören „Beleidigungen, rassistische oder sexistische Stereotypen, Entmenschlichung, Anstiftung zu Angst oder Diskriminierung, hasserfüllte Verweise, hasserfüllte Symbole und Logos“.
Nach Angaben des CCDH bleiben 196 der 200 Beiträge online, während ein Konto nach der Meldung gesperrt und zwei „gesperrt“ wurden. Eine Auswahl der von Tech überprüften Beiträge zeigt, dass X weiterhin Inhalte hostete, die antisemitische Karikaturen zeigten, Palästinenser als „Tiere“ bezeichneten und andere dazu einluden, „die Show zu genießen, in der Juden und Muslime sich gegenseitig töten“.
Alle von Tech überprüften Beispiel-X-Beiträge waren zum Zeitpunkt des Schreibens noch online. Von den 101 Konten, die in den Beispielbeiträgen vertreten waren, handelte es sich bei 82 um bezahlte, verifizierte Konten mit einem blauen Scheck.
Bei den Die nicht entfernten Beiträge sammelten insgesamt mehr als 24 Millionen Aufrufe.
Während eine Stichprobe von 200 Beiträgen zu einem bestimmten Zeitpunkt nur einen Bruchteil des Inhalts auf Social-Media-Unternehmen versäumen es regelmäßig, große Mengen an Inhalten zu entfernen, die gegen ihre Regeln verstoßen. Im Allgemeinen entfernen sie diese Beiträge jedoch sehr schnell, wenn Forscher oder Journalisten sie hervorheben.
Von den im CCDH-Bericht enthaltenen Beispielbeiträgen sind einige jetzt mit der Aufschrift „Sichtbarkeit eingeschränkt: Dieser Beitrag verstößt möglicherweise gegen die Regeln von X gegen hasserfülltes Verhalten“ versehen. Andere Inhalte, darunter Beiträge, die antisemitische Verschwörungen propagieren, den Holocaust scherzhaft ablehnen und entmenschlichende Sprache verwenden, um Gewalt gegen Muslime zu normalisieren, bleiben ohne Kennzeichnung online. Tech wandte sich an X, um zu erfahren, warum das Unternehmen gegen die meisten Beiträge, die vor zwei Wochen gemeldet wurden, keine Maßnahmen ergriffen hat, erhielt jedoch die automatische Antwort „Jetzt beschäftigt, schauen Sie bitte später noch einmal vorbei.“
„X hat versucht, Werbetreibenden und der Öffentlichkeit zu versichern, dass sie Hassreden im Griff haben – aber unsere Untersuchungen zeigen, dass dies nichts als leere Worte sind“, sagte Imran Ahmed, CEO des Center for Countering Digital Hate. „Unser ‚Mystery Shopper‘-Test der Content-Moderationssysteme von auf Elon Musks Plattform.“
In seinen Sicherheitsrichtlinien gibt X an, dass Benutzer „andere Menschen nicht aufgrund von Rasse, ethnischer Zugehörigkeit, nationaler Herkunft, Kaste, sexueller Orientierung, Geschlecht, Geschlechtsidentität, Religionszugehörigkeit, Alter, Behinderung oder schwerer Krankheit angreifen dürfen“. Unter der Führung von Elon Musk hat das Unternehmen, das früher als Twitter bekannt war reduzierte die Belegschaft für die Moderation von InhaltenEs wurden Sicherheitsrichtlinien zum Schutz marginalisierter Gruppen zurückgenommen und Wellen zuvor gesperrter Benutzer zur Rückkehr auf die Plattform eingeladen.
Dieses Jahr, X reichte eine Klage gegen die CCDH ein, mit der Behauptung, dass die gemeinnützige Organisation Daten auf der Plattform unbefugt verwendet und das Werbegeschäft des Unternehmens absichtlich untergräbt. Das CCDH behauptet, dass X rechtliche Drohungen ausübt, um seine Forschung zum Schweigen zu bringen, was in einer Reihe von Berichten über die laxe Inhaltsmoderation von X unter Elon Musk eine wichtige Rolle gespielt hat.
Am selben Tag, an dem das CCDH seinen neuen Bericht veröffentlichte, veröffentlichte X einen Blogbeitrag, in dem es seine Content-Moderationssysteme während des anhaltenden Konflikts in Israel und Gaza anpreiste. Das Unternehmen gibt an, bei über 325.000 Inhalten, die gegen seine Nutzungsbedingungen verstoßen, Maßnahmen ergriffen zu haben. Zu diesen Maßnahmen können „die Einschränkung der Reichweite eines Beitrags, die Entfernung des Beitrags oder die Sperrung des Kontos“ gehören.
„In Zeiten der Unsicherheit wie dem Israel-Hamas-Konflikt ist unsere Verantwortung, die öffentliche Diskussion zu schützen, noch größer“, schrieb das Sicherheitsteam von X.