Analysen zeigen, dass Hassreden auf Twitter deutlich zugenommen haben

Die EU schlaegt einen 12 Milliarden Dollar Plan vor um den wachsenden Cybersicherheitsbedrohungen

Der Informatiker Keith Burghardt vom Information Sciences Institute (ISI), einem Forschungsinstitut der USC Viterbi School of Engineering, untersucht seit fünf Jahren soziale Medien und seit einem Jahr insbesondere Online-Hass.

Unter anderem hat er beziffert, wie hasserfüllte Online-Communities in Reddit die Hassreden neuer Mitglieder verstärken; entwickelte Techniken, um hasserfüllte Subreddits zu erkennen und festzustellen, wie sich die frühen Interaktionen von Subreddit-Mitgliedern auf ihre Aktivitäten innerhalb der Gruppe auswirken; und Wege gefunden, um zu verstehen, wie Online-Extremismus auftritt, und Nutzer von Twitter-Gegnern vorherzusagen.

Sein neuestes Papier „Auditing Elon Musk’s Impact on Hate Speech and Bots“ quantifiziert Hass und Bots auf Twitter. Es wurde von Fachleuten begutachtet und als Posterpapier in der akzeptiert 2023 Internationale AAAI-Konferenz über Web und soziale Medien (ICWSM), die vom 5. bis 8. Juni in Limassol, Zypern, stattfindet.

Als Elon Musk am 27. Oktober 2022 Twitter kaufte, waren zwei seiner erklärten Ziele, eine weniger restriktive Inhaltsmoderation zu haben und Spam-Bots zu entfernen. In diesem Artikel wollen Burghardt und seine Forscherkollegen die Auswirkungen der ersteren und den Erfolg der letzteren untersuchen.

Weniger Moderation bedeutet mehr Hass

Frühere Untersuchungen haben gezeigt, dass eine leichtere Moderation mit einer Zunahme von Hassreden auf Social-Media-Plattformen einhergeht, weshalb Burghardts Team die Hypothese aufstellte, dass Hassreden auf Twitter nach der Übernahme von Musk zunehmen würden. Die Frage war, wie man das quantifizieren kann.

„Wir mussten zuerst eine Reihe von Wörtern erstellen, die wir als hasserfüllt bestimmen konnten. Unser Ziel war es, Wörter mit relativ hoher Präzision zu finden, was bedeutet, dass es unwahrscheinlich ist, dass Menschen, die diese Wörter verwenden, in einem nicht hasserfüllten Wort verwendet werden Weise“, sagte Burghardt. Er und sein Team haben diese Methode ursprünglich entwickelt, um Hassreden auf Reddit zu verstehen. Hier haben sie die gleiche Methodik auf Twitter angewendet. Es lieferte ihnen 49 Hass-Keywords (WARNUNG: Enthält anstößige Begriffe).

„Um nicht hasserfüllte oder sexuelle Verwendungen dieser Wörter auszusortieren“, sagte Burghardt, „haben wir außerdem nur Tweets berücksichtigt, die von einem KI-Tool, Perspective API, als giftig und nicht sexuell eingestuft wurden.“

Da das Vorhandensein eines Hass-Keywords nicht unbedingt bedeutet, dass ein Tweet hasserfüllt ist, verwendete das Team die Perspective API (Application Programming Interface), eine kostenlose und öffentlich verfügbare API, die maschinelles Lernen nutzt, um toxische Konversationen zu identifizieren. Obwohl ursprünglich auf Daten der New York Times trainiert, wurde es auf einer Vielzahl von Social-Media-Plattformen, einschließlich Twitter, verifiziert. Das Team filterte die Tweets der hasserfüllten Benutzer anhand der Toxizitätsmetrik der Perspective API, die einen giftigen Kommentar als „einen unhöflichen, respektlosen oder unvernünftigen Kommentar definiert, der die Leute wahrscheinlich dazu bringt, eine Diskussion zu verlassen“.

Mit dieser Methodik extrahierte das Team Zeitlinien einer Stichprobe von Benutzern, die einen Monat vor und nach Musks Kauf hasserfüllte Tweets gepostet hatten, und maß ihre tägliche Häufigkeit von Hassreden im gleichen Zeitraum. Dies gab ihnen ein Maß dafür, inwieweit bereits hasserfüllte Hochtöner ihr Hassniveau änderten.

Sie fanden heraus, dass der Anteil an Hasswörtern in den Tweets hasserfüllter Nutzer zunahm, nachdem Musk Twitter gekauft hatte. Und die durchschnittliche tägliche Hassrede hasserfüllter Benutzer hat sich fast verdoppelt.

Dann haben sie das Gesamtvolumen hasserfüllter Tweets im Jahr 2022 gemessen. Um sicherzustellen, dass Schwankungen in Hassreden nicht Schwankungen in der gesamten Benutzeraktivität widerspiegeln, haben sie auch Stichproben einer Grundlinie von Tweets gemacht, die in denselben Zeitintervallen mit harmlosen Schlüsselwörtern gesammelt wurden (z. B. „ Ding“).

Sie fanden heraus, dass sich die tägliche durchschnittliche Gesamtnutzung von Hass-Keywords auf Twitter fast verdoppelte, nachdem Musk Twitter gekauft hatte.

Nun zu diesen Bots

Musk hob die Reduzierung der Bot-Konten als eines seiner Ziele für die Plattform hervor. Daher stellten Burghardt und seine Forscherkollegen die Hypothese auf, dass die Verbreitung von Bots nach seinem Kauf von Twitter abnehmen würde.

Während Bots nicht unbedingt mit Hassreden in Verbindung gebracht werden, war dies eine Fortsetzung der von ihnen durchgeführten Prüfung, bei der die erklärten Ziele von Musk für die Social-Media-Plattform bewertet und quantifiziert wurden.

Es sollte jedoch beachtet werden, dass sich gezeigt hat, dass Bots Risiken für Social-Media-Plattformen darstellen, indem sie Fehlinformationen und Hass verbreiten.

Das Team verwendete die Botometer-API, die unter anderem von Emilio Ferrara, Teamleiter am ISI und Professor für Kommunikation und Informatik an der USC Annenberg und am USC Viterbi Department of Computer Science, entwickelt wurde. Das Botometer berücksichtigt über 1.000 Merkmale, um vorherzusagen, ob ein Twitter-Konto ein Bot ist und um welche Art von Bot es sich handelt (z. B. Spam-Bot im Vergleich zu einem gefälschten Follower).

Das Team sammelte sowohl vor als auch nach dem Kauf von Twitter Botometer-Ergebnisse einer Stichprobe zufälliger Konten. Burghardt sagte: „Wir haben festgestellt, dass einige Arten von Bots häufiger wurden, andere etwas weniger verbreitet. Aber insgesamt gab es keine signifikante Veränderung in der Anzahl der Bots.“

„Ich war schon immer daran interessiert, Einfluss zu verstehen. Das führte zu dem Versuch, zu verstehen, ob es Möglichkeiten gibt, Menschen dazu zu bringen, schädliche Dinge zu tun“, sagte Burghardt. Diese Überprüfung von Twitter ist ein Teil dieser Arbeit, ebenso wie seine anderen aktuellen Projekte: Vorhersagen, ob Benutzer Hassgruppen beitreten werden; und wie externe Ereignisse Menschen dazu bringen können, extremistische Ansichten zu haben.

Bereitgestellt von der University of Southern California

ph-tech