Wie sich Fehlinformationen und Desinformationen verbreiten, welche Rolle KI spielt und wie wir uns davor schützen können

Wir schwimmen in einem Meer von Informationen, das auf einem 24/7-Zyklus von Inhalten basiert, die für unseren endlosen Konsum produziert werden. Durchschnittliche Amerikaner starren dreieinhalb Stunden am Tag auf ihre Smartphones – und nehmen alles in sich auf.

Aber wie viel davon ist wahr? Das ist schwer zu sagen, aber eines ist klar: Es gibt viele Fehlinformationen und Desinformationen, und KI macht es einfacher denn je, Inhalte aus dem Nichts zu erstellen.

Was sind diese verschiedenen Arten nicht wahrheitsgemäßer Informationen und nimmt ihre Verbreitung zu? Und wie bekämpfen wir es?

Kelly M. Greenhill, außerordentliche Professorin für Politikwissenschaft, ist eine Expertin auf diesem Gebiet. Die Autorin von „Weapons of Mass Migration: Forced Displacement, Coercion, and Foreign Policy“ beendet derzeit ein Buch, das den Einfluss von Gerüchten, Verschwörungstheorien, Propaganda, Mythen und anderen Formen außerfaktischer Informationen auf die internationale Politik untersucht.

Greenhill, die auch an der Fakultät des Tisch College of Civic Life lehrt, sprach kürzlich mit Tufts Now, in der sie die Vielfalt dessen, was sie als außerfaktische Informationen bezeichnet, erläuterte und über deren Einfluss auf die amerikanische Politik sprach und darüber, was wir als Informationskonsumenten tun können Halten Sie die Dinge klar.

Was ist der Unterschied zwischen Fehlinformation und Desinformation?

Fehlinformationen sind falsche oder irreführende Informationen, die fälschlicherweise erstellt oder verbreitet werden, während Desinformation falsche oder irreführende Informationen ist, die wissentlich und absichtlich verbreitet werden, um Schaden anzurichten.

In meiner eigenen Arbeit konzentriere ich mich oft auf das, was ich bezeichne außersachliche Informationenwas sowohl Fehlinformationen als auch Desinformationen sowie andere Formen unbestätigter und nicht überprüfbarer Informationen umfasst.

Ich halte es aus mehreren Gründen für wichtig, diese unterschiedlichen Informationsformen gemeinsam zu analysieren.

Erstens sind sie im heutigen Informationsökosystem allgegenwärtig. Zweitens sind sie oft miteinander verbunden; Beispielsweise kann ein auf Fehlinformationen basierendes Gerücht zu einer durch Desinformation getriebenen Verschwörungstheorie führen, die auf nicht überprüfbaren Mythen über bestimmte Personen oder Gruppen in einer Gesellschaft basiert. Drittens verarbeitet unser Gehirn diese verschiedenen Arten von Informationen nicht unterschiedlich. Und viertens: Je mehr wir Informationen hören, desto „wahrer“ fühlt sie sich für unser Gehirn an.

Wenn wir also nur die eine oder andere Art von Informationen isoliert untersuchen, entgeht uns viel darüber, was tatsächlich vor sich geht, sowohl auf der Mikroebene in den Köpfen der Einzelnen als auch auf der Makroebene im Hinblick auf beobachtbare Ergebnisse in allen Gesellschaften und Gesellschaften sogar transnational.

Hat die Desinformation in der amerikanischen Politik – und ganz allgemein – spürbar zugenommen? Wenn ja, woher kommt es?

Weltweit gibt es in der Politik mehr Desinformation, nicht zuletzt deshalb, weil wir in einer Zeit leben, in der immer mehr Politiker schamlos lügen und/oder irreführende, außersachliche Informationen verbreiten.

Leider sind die Regeln für die Verbreitung heuchlerischer und unaufrichtiger Informationen in den letzten Jahren gelockert worden. Viele Politiker, die dieses Verhalten an den Tag legen, werden nicht bestraft.

Tatsächlich werden sie von Unterstützern belohnt, die die „wahrheitsgemäße“ Botschaft – Wissen, das sich wahr „fühlt“ und aus dem Bauch kommt, statt höherer Argumentation – gegenüber weniger schmackhaften, faktenbasierten Alternativen bevorzugen. Das außergewöhnliche Verhalten von Donald Trump in dieser Hinsicht während des Präsidentschaftswahlkampfs 2016 und danach diente vielen anderen als Vorbild.

Haben soziale Medien die Verbreitung von Fehlinformationen und Desinformationen weiter verbreitet?

Wie andere revolutionäre Kommunikationstechnologien zuvor macht es das Internet – und die Social-Media-Plattformen, die es hervorgebracht hat – sicherlich einfacher, alle Arten von Informationen schneller und weiter zu verbreiten, als dies zuvor der Fall war. Und die Algorithmen auf den Social-Media-Plattformen sind explizit darauf ausgelegt, ihren Kunden mehr von dem zu bieten, was sie scheinbar sehen möchten, um sie auf den Websites zu halten und den Technologieunternehmen wertvollere Benutzerdaten und Einnahmen zu verschaffen.

Entscheidend ist jedoch – wie schon immer – der Inhalt der Nachricht (ihre Bedeutung für das Publikum), die wahrgenommene Autorität der Quelle (des Boten) und die Häufigkeit, mit der die Nachricht empfangen wird (Wiederholung). Diese Schlüsselkombination aus einem glaubwürdigen Boten, der eine hervorstechende und scheinbar plausible Botschaft übermittelt und dies wiederholt tut, ist weder neu noch einzigartig im Zeitalter des Internets oder der sozialen Medien. Die Technologie hat sich verändert, aber die Art und Weise, wie unser Gehirn Eingaben verarbeitet und was wir überzeugend finden und warum, hat sich nicht verändert.

Gibt es Befürchtungen, dass mit dem Aufkommen von KI und großen Sprachmodellen wie ChatGPT Fehlinformationen und Desinformationen zunehmen und schwerer zu erkennen sind?

Ja, diese Ängste sind selbst ziemlich allgegenwärtig. Sie sind auch solide. Es gibt echte Gründe zur Sorge. Andererseits werden vielversprechende Technologien wie KI-Wasserzeichen entwickelt, um sowohl Messengern als auch Zielgruppen dabei zu helfen, zwischen echten und KI-generierten Inhalten zu unterscheiden. Aber es scheint, zumindest auf der Grundlage dessen, was man aus Open-Source-/nicht-klassifizierten Daten gewinnen kann, dass wir noch einen langen Weg vor uns haben.

Da die Menschen gleichzeitig wissen, dass es KI-generierte Inhalte geben wird, sollten sie zumindest theoretisch darauf vorbereitet sein, den Inhalten, auf die sie stoßen, skeptischer gegenüberzustehen und weniger davon als selbstverständlich wahr oder plausibel wahr zu betrachten. Unabhängig von der Quelle – echt, gefälscht oder irgendwo dazwischen – ist es jedoch weniger wahrscheinlich, dass eine Person, wenn sie eine Idee oder Information beim Hören als wahr empfindet, deren Wahrhaftigkeit hinterfragt oder in Frage stellt.

Wie können wir als Informationskonsumenten sicher sein, was wir sehen und lesen?

Leider können wir uns in den meisten Fällen nicht sicher sein. Was wir jedoch tun können, ist, uns ein paar Fragen zu stellen, wenn wir auf Informationen stoßen. Dazu gehören: Woher kamen die Informationen? Ist die Quelle glaubwürdig und warum glauben wir das? Was ist die Motivation der Quelle, die Informationen weiterzugeben? Wenn wir sofort denken, dass sich die Informationen wahr „anfühlen“, welche Beweise würden dann, wenn überhaupt, unsere Meinung ändern?

Mit anderen Worten: Wenn wir glauben wollen, dass es wahr ist, warum, und wenn nicht, warum nicht? Kurz gesagt: Auch wenn es kein Allheilmittel ist, kann uns die bewusste Reaktion auf neue Informationen dabei helfen, uns in einer komplizierten Informationslandschaft zurechtzufinden.

Daniel Dennett, emeritierter Professor für Philosophie an der Tufts University, hat gesagt, dass er befürchtet, dass das Vertrauen zwischen Menschen als Ganzes durch lebensechte KI zerstört wird – dass wir nicht wissen können, wem wir vertrauen können. Was halten Sie davon?

In weiten Teilen der Welt und insbesondere in vielen westlichen, liberalen Demokratien leiden wir seit geraumer Zeit unter einer Krise des Vertrauensverlusts, insbesondere des Vertrauens in Institutionen wie Regierungen und Medien sowie in Experten und Fachwissen Jetzt. Diese Krise hat mittlerweile vielerorts kritische Ausmaße erreicht.

KI ist weder die Wurzel des Problems noch seine Ursache. Aber KI kann angesichts der zugrunde liegenden Vertrauenskrise wichtige, vielleicht sogar kritische, verschärfende Auswirkungen haben. Die „Stammes“-Gruppenidentität – und was die anderen Gruppenmitglieder darüber sagen, wem man vertrauen und was man glauben soll – kann Fakten übertrumpfen und tut dies oft auch.

KI ist, wie viele Technologien auch, eher eine Dienerin als der Meister. Könnte sich das in Zukunft ändern? Absolut. Aber ich denke, wir haben derzeit akutere und existenziell wichtigere Vertrauensprobleme, mit denen wir uns auseinandersetzen und die wir bekämpfen müssen.

Bereitgestellt von der Tufts University

ph-tech