X, die soziale Plattform, die früher als Twitter bekannt war, wurde heftig kritisiert, weil sie unter Eigentümer Elon Musk mit Fragen des Vertrauens und der Sicherheit umgegangen ist. Heute hat das Unternehmen, das nach eigenen Angaben mittlerweile über 500 Millionen monatliche Besucher auf seiner Plattform hat, einige Zahlen und Updates veröffentlicht darüber, wie es mit einem wichtigen Testfall von all dem umgegangen ist: dem Israel-Hamas-Krieg.
Um es deutlich zu sagen: Die von Dennoch ist es bemerkenswert, dass X, das mittlerweile ein Privatunternehmen ist, sich gezwungen sieht, überhaupt etwas zu veröffentlichen. Das spricht für die anhaltenden Bemühungen des Unternehmens, nett zu sein, während es weiterhin versucht, Werbetreibende zu umwerben.
Und wie andere berichtet haben, war dies eine ständige Herausforderung für X. Eine im Oktober veröffentlichte Studie (via Reuters) kurz vor den ersten Angriffen der Hamas in Israel ergab, dass in den USA (ihrem größten Markt) in den letzten zehn Monaten jeweils ein Rückgang der Werbeeinnahmen um 55 % oder mehr zu verzeichnen war.
Hier sind die Highlights des Updates:
X Safety gab an, gegen mehr als 325.000 Inhalte vorgegangen zu sein, die gegen die Nutzungsbedingungen des Unternehmens verstoßen, einschließlich der Regeln zu gewalttätiger Sprache und hasserfülltem Verhalten. „Aktiviert“ umfasst das Entfernen eines Beitrags, die Sperrung des Kontos oder die Einschränkung der Reichweite eines Beitrags. X hatte zuvor auch angekündigt, die Monetarisierungsoptionen für diese Beiträge zu entfernen (unter Verwendung von Community Notes-Korrekturen als Teil dieser Bemühungen).
X sagte, dass 3.000 Konten entfernt wurden, darunter auch Konten, die mit der Hamas in Verbindung stehen.
X fügte hinzu, dass es daran gearbeitet habe, „automatisch gegen antisemitische Inhalte vorzugehen“ und „unseren Agenten weltweit einen Auffrischungskurs zum Thema Antisemitismus angeboten“ habe. Es wird nicht angegeben, wer diese Agenten sind, wie viele es gibt, wo sie sich befinden, noch wer den Auffrischungskurs anbietet und was in diesem Kurs enthalten ist.
X verfügt über ein „Eskalationsteam“, das Maßnahmen gegen mehr als 25.000 Inhalte ergriffen hat, die unter die Richtlinie des Unternehmens zu synthetischen und manipulierten Medien fallen – also Fake News oder mithilfe von KI und Bots erstellte Inhalte.
Es wurden auch spezifische Konten in diesem Zusammenhang ins Visier genommen: Mehr als 375.000 seien suspendiert oder auf andere Weise inhaftiert worden, hieß es, aufgrund von Untersuchungen zu „authentischen Gesprächen“ rund um den Konflikt. Dazu gehörten koordiniertes/unauthentisches Engagement, unauthentische Konten, doppelte Inhalte und Trendthemen-/Hashtag-Spam, hieß es weiter. Dies ist noch nicht abgeschlossen, auch wenn es wiederum keine Klarheit über die Methodik gibt. In der Zwischenzeit sagte X, man erwäge auch die Störung „koordinierter Kampagnen zur Manipulation von Gesprächen im Zusammenhang mit dem Konflikt“.
Grafische Inhalte, sagte X, seien weiterhin zulässig, wenn sie sich hinter einer sensiblen Medienwarn-Einblendung stünden und berichtenswert seien, diese Bilder würden jedoch entfernt, wenn sie der „Gratuitous Gore“-Definition des Unternehmens entsprächen. (Weitere Informationen zu dieser und anderen Definitionen sensibler Inhalte finden Sie hier Hier.) Das Unternehmen gab nicht bekannt, wie viele Bilder oder Videos in diesen beiden Kategorien gekennzeichnet wurden.
Community Notes – die Crowdsourcing-Moderation im Wikipedia-Stil von X – wurden im letzten Monat von Kritikern der Plattform unter die Lupe genommen. Da der größte Teil des firmeninternen Trust-and-Safety-Teams inzwischen verschwunden ist und es keine externe Überprüfung der Funktionsweise gibt, es aber in vielerlei Hinsicht zahlreiche Hinweise auf Missbrauch auf der Plattform gibt, fühlt sich Community Notes mittlerweile wie die erste Anlaufstelle von X an zur Abwehr irreführender und manipulativer Inhalte.
Aber wenn das der Fall ist, dann ist es ein ungleiches Spiel. Im Vergleich zur Unmittelbarkeit des Postens und Teilens auf der Plattform selbst kann es Wochen dauern, bis die Genehmigung als Ersteller von Community-Notizen erteilt wird, und dann kann es manchmal Stunden dauern, bis diese Notizen erstellt werden gerade Tage veröffentlichen.
Jetzt hat X einige Updates zum Stand der Dinge bereitgestellt. X sagte, im ersten Monat des Konflikts seien Notizen zu Beiträgen mehr als 100 Millionen Mal aufgerufen worden. Mittlerweile sind mehr als 200.000 Mitwirkende in 44 Ländern am Programm beteiligt, 40.000 sind seit Beginn der Kämpfe hinzugekommen.
Es fügte hinzu, dass man versuche, den Prozess zu beschleunigen. „Sie sind jetzt 1,5 bis 3,5 Stunden schneller sichtbar als noch vor einem Monat“, heißt es darin. Außerdem werden automatisch Notizen für beispielsweise ein Video oder Foto zu Beiträgen mit passenden Medien hinzugefügt. Und jetzt wird versucht, einen Teil des Schadens zu beheben, der durch die Verbreitung gefälschter und manipulierter Nachrichten auf der Plattform entsteht. Wenn an einen dieser Beiträge eine Community-Notiz angehängt wird, wird diese jetzt als Warnung gesendet. X stellt fest, dass fast bis zu 1.000 davon pro Sekunde verschickt wurden – was das Ausmaß des Problems, wie viele schädliche Inhalte auf der Plattform verbreitet werden, deutlich unterstreicht.
Wenn es eine Motivation dafür gäbe, warum X das alles heute postet, hätte ich vermutet: Geld. Und tatsächlich beziehen sich die abschließenden Datenpunkte, die hier dargelegt werden, auf die „Markensicherheit“, d.
X weist darauf hin, dass es proaktiv mehr als 100 Publisher-Videos entfernt hat, die „nicht für die Monetarisierung geeignet“ sind, und dass seine Keyword-Sperrlisten mehr als 1.000 weitere Begriffe im Zusammenhang mit dem Konflikt hinzugefügt haben, was wiederum die Anzeigenausrichtung und Adjacency auf Timeline- oder Suchplatzierungen blockiert. „Da derzeit viele Gespräche über “ fügte es hinzu.