Fehlinformationen sind eine bedauerliche Realität in den sozialen Medien. An jedem beliebigen Tag können Besucher auf Facebook, Twitter, Instagram und anderen Websites erfundene „Fakten“ über alles finden, von Impfstoffen über den Krieg in der Ukraine bis hin zum Klimawandel.
Während manche Menschen leicht den Unterschied zwischen Wahrheit und Fiktion erkennen können, gelingt es anderen nicht.
Wie kommt ein scheinbar rationaler Mensch dazu, an falsche Informationen zu glauben?
Diese Frage wird von „PolyGraphs: Combatting Networks of Ignorance in the Misinformation Age“ beantwortet.
Das Projekt erstreckt sich über drei Abteilungen – Philosophie, Wirtschaft und Informatik – an der Northeastern University London und nutzt Computersimulationen, um uns dabei zu helfen, mehr darüber zu erfahren, wie Wissen innerhalb einer Social-Media-Community fließt.
Jetzt, zwei Jahre später, haben die Forscher eine gestartet interaktive Website und machte einige beeindruckende Entdeckungen, darunter Einblicke in die Frage, wie und warum rationale Menschen dazu kommen können, das Falsche zu glauben.
Das Projekt nutzt künstliche Daten sowie Daten aus echten sozialen Netzwerken wie Facebook und Twitter Erstellen Sie simulierte Gemeinschaften wobei jeder Einzelne aufgefordert wird, zwischen A und B zu wählen. (B ist die richtige Wahl – aber die Gemeinschaft weiß es nicht.) Die Agenten in der Gemeinschaft sammeln ihre eigenen Beweise, teilen sie mit anderen und ändern ihre Überzeugungen. Anschließend prüfen die Forscher, ob die Community gemeinsam zum richtigen Schluss kommt und wie lange es dauert.
Simulationen ähnlich wie Arzneimittelstudien
Wenn das abstrakt klingt, bietet Amil Mohanan ein Szenario, das dem ähnelt, mit dem die Agenten in den Simulationen konfrontiert sind. Mohanan, Assistenzprofessor für Philosophie an der Northeastern University London, vergleicht die Simulationen mit Medikamentenstudien, die von einer Ärztegemeinschaft durchgeführt werden. In einer Simulation erhält jeder Arzt Medikament A oder Medikament B zum Testen.
„Wir wissen, dass B etwas besser ist, aber die Ärzte in der Gemeinschaft, die wir simuliert haben, wissen das nicht“, sagt er.
Wenn die Ärzte Versuche durchführen, stellen sie fest, dass Medikament B besser ist, und teilen ihre Erkenntnisse mit ihren Nachbarn. Abhängig von einer Vielzahl von Faktoren ändern einige Ärzte ihre Überzeugungen, je nachdem, was sie von anderen lernen. Wenn alles gut geht, werden sie sich irgendwann darauf einigen, dass Medikament B besser ist.
Aber wie lange wird das dauern?
„Wir messen, finden die Gemeinden heraus, dass B besser ist, und wie lange brauchen sie dafür?“ Sagt Mohanan. Sie führen Tausende von Iterationen der Simulationen durch und ändern verschiedene Parameter wie die Größe und Form des Netzwerks, um herauszufinden, wie lange es dauert, bis sich alle auf Medikament B einigen.
Beispielsweise fließen in einem Netzwerktyp Informationen nur zwischen jedem Agenten und zwei anderen, wodurch ein Kreis der gemeinsamen Nutzung entsteht. In einem anderen Fall teilt eine Person Informationen mit dem Rest der Gruppe, die wiederum Informationen zurückgibt. In einem anderen Fall teilt jeder Informationen mit jedem. Diese Arten von Netzwerken ahmen diejenigen nach, die wir im wirklichen Leben oder online sehen.
Kleine Lügen können eine große Wirkung haben
Ein weiterer Faktor, der die Ergebnisse beeinflusst, sind Fehlinformationen. Kleine Lügen können eine große Wirkung haben, hat Mohanan herausgefunden, abhängig von Faktoren wie spärlich oder dicht das Netzwerk.
Und Lügen kann in verschiedenen Simulationen unterschiedlich aussehen. Ärzte können so tun, als hätten sie eine Studie durchgeführt und wüssten, dass Medikament A besser sei. Sie können eine zufällig auswählen und Daten zusammenstellen. Oder sie können lügen und sich für Droge A entscheiden, weil sie diese am besten kennen.
„Die Gesamtergebnisse sind für jedes Szenario sehr unterschiedlich“, sagt Mohanan. Nach Tausenden von Iterationen der Simulation hat das Team herausgefunden, dass diese Keime des Zweifels große Auswirkungen haben können.
Auch andere Erkenntnisse waren unerwartet. Zum einen hat das Team herausgefunden, dass es manchmal tatsächlich schädliche Auswirkungen haben kann, wenn Menschen mehr Informationen miteinander teilen und den Konsens verzögern. Dies ist als Zollman-Effekt bekannt, die Theorie, dass mehr Konnektivität eher zu einer falschen Annahme führt.
„Rationale Agenten in einem Netzwerk wie diesem können häufiger unwissend werden oder die Wahrscheinlichkeit erhöhen, dass sie nicht zur wahren Antwort auf die Frage gelangen, wenn sie mehr miteinander reden“, sagt Brian Ball, Leiter der Fakultät für Philosophie an der Northeastern University London.
Sie fanden außerdem heraus, dass es zu mangelndem Konsens und damit zu einer Polarisierung der Gemeinschaft kommen kann, wenn Mitglieder der Gemeinschaft denen nicht vertrauen, deren Überzeugungen sich von ihren eigenen unterscheiden.
Unwissenheit unter rationalen Subjekten
Vor allem wollen sie beweisen, dass Unwissenheit sogar bei rationalen Subjekten vorherrschen kann. Menschen, die etwas falsch machen, können als unintelligent oder voreingenommen wahrgenommen werden. „Wir zeigen jedoch, dass Menschen tatsächlich etwas falsch machen können, wenn es nichts damit zu tun hat“, sagt Ball.
Vielmehr können je nach Struktur des sozialen Netzwerks Menschen unverschuldet in die Irre geführt werden.
„Es könnte etwas damit zu tun haben, wie gut sie in den Gemeinschaften vernetzt sind und wie ihre Informationsumgebung allgemeiner aussieht“, sagt Ball.
Ball hofft, dass diese Entdeckungen in einer Vielzahl von Bereichen nützlich sein können, darunter in sozialen Medien, in der öffentlichen Ordnung, bei Medienorganisationen und gemeinnützigen Organisationen, die sich auf die Bekämpfung von Fehlinformationen im Internet konzentrieren.
Wenn Sie sich Sorgen darüber machen, was Sie in den sozialen Medien sehen, hat Mohanan einige beruhigende Worte. Im Allgemeinen „kommt die Wahrheit mit der Zeit ans Licht“.