Im Zeitalter generativer KI und großer Sprachmodelle (LLMs) können riesige Mengen unauthentischer Inhalte schnell auf Social-Media-Plattformen verbreitet werden. Infolgedessen werden böswillige Akteure immer raffinierter, kapern Hashtags, verstärken irreführende Inhalte künstlich und verbreiten Propaganda massenhaft weiter.
Diese Aktionen werden oft von staatlich geförderten Informationsoperationen (IOs) orchestriert, die versuchen, die öffentliche Meinung bei großen geopolitischen Ereignissen wie den US-Wahlen, der COVID-19-Pandemie und anderen zu beeinflussen.
Die Bekämpfung dieser IOs war noch nie so wichtig. Durch die Identifizierung von Einflusskampagnen mit hochpräziser Technologie wird die Fehlklassifizierung legitimer Benutzer als IO-Treiber erheblich reduziert und sichergestellt, dass Social-Media-Anbieter oder Regulierungsbehörden nicht versehentlich Konten sperren, während sie versuchen, illegale Aktivitäten einzudämmen.
Vor diesem Hintergrund leitet der Forscher des USC Information Sciences Institute (ISI), Luca Luceri, gemeinsam die Bemühungen, Einflusskampagnen in sozialen Medien zu identifizieren und zu charakterisieren. Sein jüngster Artikel „Demasking the Web of Deceit: Uncovering Coordinated Activity to Expose Information Operations on Twitter“ wurde präsentiert auf der Webkonferenz am 13. Mai 2024.
„Mein Team und ich haben in den letzten fünf bis zehn Jahren an der Modellierung und Identifizierung von IO-Treibern wie Bots und Trollen gearbeitet“, sagte Luceri. „In diesem Artikel haben wir unsere Methoden weiterentwickelt, um eine Reihe unbeaufsichtigter und überwachter Modelle für maschinelles Lernen vorzuschlagen, die orchestrierte Einflusskampagnen aus verschiedenen Ländern innerhalb der Plattform X (ehemals Twitter) erkennen können.“
Ein verschmolzenes Netzwerk ähnlicher Verhaltensweisen
Anhand eines umfassenden Datensatzes von 49 Millionen Tweets aus verifizierten Kampagnen aus sechs Ländern – China, Kuba, Ägypten, Iran, Russland und Venezuela – haben Luceri und sein Team fünf Sharing-Verhaltensweisen auf X untersucht, an denen IO-Fahrer beteiligt sind.
Dazu gehören Co-Retweeting (Teilen identischer Tweets), Co-URL (Teilen derselben Links oder URLs), Hashtag-Sequenz (Verwendung einer identischen Hashtags-Sequenz innerhalb von Tweets), schnelles Retweeten (schnelles erneutes Teilen von Inhalten derselben Benutzer), und Textähnlichkeit (Tweets mit ähnlichem Textinhalt).
Frühere Forschungen konzentrierten sich auf den Aufbau von Netzwerken, die jede Verhaltensart abbildeten und die Ähnlichkeiten zwischen einzelnen Benutzern auf nicht genug.
„Wir haben festgestellt, dass Co-Retweeten in großem Umfang von Kampagnen in Kuba und Venezuela genutzt wird“, erklärte Luceri. „Wenn wir jedoch nur das Co-Retweet untersuchen und dabei andere Verhaltensweisen nicht berücksichtigen, würden wir bei der Identifizierung einiger Kampagnen gut abschneiden, beispielsweise bei denen, die aus Kuba und Venezuela stammen, aber schlecht, wenn Co-Retweet seltener eingesetzt wird, wie etwa in russischen Kampagnen.“
Um ein breiteres Spektrum koordinierter Sharing-Verhaltensweisen zu erfassen, bauten die Forscher ein einheitliches Ähnlichkeitsnetzwerk namens Fused Network auf. Anschließend wandten sie maschinelle Lernalgorithmen an, die auf topologischen Eigenschaften des zusammengeführten Netzwerks basieren, um die Ähnlichkeiten dieser Konten zu klassifizieren und ihre zukünftige Teilnahme an IOs vorherzusagen.
Luceri und sein Team fanden heraus, dass diese Methode auf Kampagnen auf der ganzen Welt anwendbar sein könnte. Mehrere X-Benutzer innerhalb derselben Kampagne, unabhängig von ihrer Herkunft, zeigten eine bemerkenswerte kollektive Ähnlichkeit in ihren Aktionen.
„Ich betrachte unsere Arbeit als einen Paradigmenwechsel in den Forschungsmethoden, der eine neue Perspektive bei der Identifizierung von Einflusskampagnen und ihren Treibern eröffnet“, sagte Luceri.
Neue Möglichkeiten erschließen
Das unbeaufsichtigte Modell des maschinellen Lernens nutzt bekannte, aber wenig genutzte Netzwerkfunktionen und erreicht eine um 42 % höhere Präzision als andere herkömmliche Ansätze zur Erkennung von Einflusskampagnen. Luceri betrachtet dieses Papier als einen Ausgangspunkt, der den Weg für weitere Forschungswege ebnen könnte.
„Wir können Modelle auf die topologischen Merkmale dieses Ähnlichkeitsnetzwerks trainieren und dafür sorgen, dass sie in komplexen Szenarien funktionieren: zum Beispiel, wenn verschiedene Benutzer aus verschiedenen Ländern miteinander interagieren, oder in schwierigeren Situationen, in denen wir nur begrenzte Informationen über die Kampagnen haben.“ bemerkte Luceri.
Luceri präsentierte ebenfalls ein weiteres Papier „Leveraging Large Language Models to Detect Influence Campaigns in Social Media“ auf der Webkonferenz, die vom International Workshop on Computational Methods for Online Discourse Analysis (BeyondFacts’24) mit dem Best Paper Award ausgezeichnet wurde. Der Artikel untersucht das Potenzial des Einsatzes von LLMs, um die Anzeichen von KI-gesteuerten Einflusskampagnen zu erkennen. Dies ist besonders wichtig im aktuellen Klima, in dem KI-basierte Medien allgegenwärtig sind.
„Diese koordinierten Aktivitäten haben Konsequenzen im wirklichen Leben“, sagte Luceri. „Sie haben die Macht, Fehlinformationen und Verschwörungstheorien zu verbreiten, die zu Protesten oder Angriffen auf unsere Demokratie führen könnten, wie etwa die Einmischung russischer Trolle in die US-Wahlen 2016.“
Luceri und sein Team setzen sich dafür ein, die Suche nach alternativen Strategien fortzusetzen, um Einflusskampagnen zu identifizieren und beeinflussungsgefährdete Benutzer zu schützen.
Mehr Informationen:
Luca Luceri et al., Das Netz der Täuschung entlarven: Aufdeckung koordinierter Aktivitäten zur Aufdeckung von Informationsoperationen auf Twitter, arXiv (2023). DOI: 10.48550/arxiv.2310.09884
Luca Luceri et al., Nutzung großer Sprachmodelle zur Erkennung von Einflusskampagnen in sozialen Medien, arXiv (2023). DOI: 10.48550/arxiv.2311.07816