Kann uns KI aus den Kaninchenlöchern der Verschwörungstheorien herausreden?

Neue Forschung veröffentlicht in Science zeigt, dass manche Menschen, die an Verschwörungstheorien glauben, durch eine faktenbasierte Unterhaltung mit einem Chatbot mit künstlicher Intelligenz (KI) „aus dem Kaninchenbau herausgezogen“ werden können. Besser noch: Es scheint, als würden sie mindestens zwei Monate lang draußen bleiben.

Diese von Thomas Costello am Massachusetts Institute of Technology und seinen Kollegen durchgeführte Forschung verspricht Lösungen für ein schwieriges gesellschaftliches Problem: den Glauben an Verschwörungstheorien.

Einige Verschwörungstheorien sind relativ harmlos, wie zum Beispiel zu glauben, dass Finnland nicht existiert (was in Ordnung ist, bis man einen Finnen trifft). Andere Theorien verringern jedoch das Vertrauen in öffentliche Einrichtungen Und Wissenschaft.

Dies wird zu einem Problem, wenn Verschwörungstheorien Menschen davon abhalten, impfen lassen oder nicht gegen den Klimawandel vorgehen. In seiner extremsten Form wird der Glaube an Verschwörungstheorien in Verbindung gebracht mit Menschen sterben.

Verschwörungstheorien bleiben hartnäckig

Trotz der negativen Auswirkungen von Verschwörungstheorien haben sie sich als sehr hartnäckig erwiesen. Wenn Menschen erst einmal an eine Verschwörungstheorie glauben, ist es schwer, ihre Meinung zu ändern.

Die Gründe dafür sind vielschichtig. Verschwörungstheorien sind in Verbindung mit Gemeindenund Verschwörungstheoretiker haben oft Erledigt Umfangreiche Recherche um ihre Position zu erreichen.

Wenn eine Person der Wissenschaft oder irgendjemandem außerhalb ihrer Gemeinschaft nicht mehr vertraut, ist es schwer, ihre Überzeugungen zu ändern.

Geben Sie KI ein

Die explosionsartige Verbreitung generativer KI in der Öffentlichkeit hat die Sorge verstärkt, dass Menschen an Dinge glauben, die nicht wahr sind. KI macht es sehr einfach erstellen glaubwürdiger Fake-Inhalt.

Selbst wenn KI-Systeme in gutem Glauben eingesetzt werden, können sie Fakten falsch darstellen. (ChatGPT und andere Chatbots warnen Benutzer sogar, dass sie bei manchen Themen falsch liegen könnten.)

KI-Systeme enthalten außerdem weitverbreitete Vorurteile, das heißt, sie können negative Vorstellungen über bestimmte Personengruppen fördern.

Vor diesem Hintergrund ist es recht überraschend, dass ein Chat mit einem System, das dafür bekannt ist, Falschnachrichten zu produzieren, manche Menschen davon überzeugen kann, ihre Verschwörungstheorien aufzugeben, und dass diese Veränderung offenbar von Dauer ist.

Allerdings stellt uns diese neue Forschung vor ein Problem: Es gibt gute und schlechte Nachrichten.

Es ist großartig, dass wir etwas entdeckt haben, das einen gewissen Einfluss auf die Überzeugungen von Verschwörungstheoretikern hat! Aber wenn KI-Chatbots gut darin sind, Menschen von hartnäckigen, unwissenschaftlichen Überzeugungen abzubringen, was bedeutet das dann für wahre Überzeugungen?

Was können die Chatbots?

Lassen Sie uns die neue Forschung genauer untersuchen. Die Forscher wollten wissen, ob man Menschen mit sachlichen Argumenten von den Ansichten der Verschwörungstheoretiker abbringen kann.

An dieser Untersuchung nahmen über 2.000 Teilnehmer in zwei Studien teil, die alle mit einem KI-Chatbot chatteten, nachdem sie eine Verschwörungstheorie beschrieben hatten, an die sie glaubten. Allen Teilnehmern wurde gesagt, dass sie mit einem KI-Chatbot sprachen.

Die Personen in der „Behandlungsgruppe“ (60 % aller Teilnehmer) unterhielten sich mit einem Chatbot, der auf ihre jeweilige Verschwörungstheorie und die Gründe, warum sie daran glaubten, zugeschnitten war. Dieser Chatbot versuchte, diese Teilnehmer in drei Gesprächsrunden (jeder Teilnehmer und der Chatbot sprechen abwechselnd) mit sachlichen Argumenten davon zu überzeugen, dass ihre Überzeugungen falsch waren. Die andere Hälfte der Teilnehmer führte eine allgemeine Diskussion mit einem Chatbot.

Die Forscher stellten fest, dass etwa 20 % der Teilnehmer der Behandlungsgruppe nach der Diskussion weniger an Verschwörungstheorien glaubten. Als die Forscher die Teilnehmer zwei Monate später erneut befragten, zeigten die meisten von ihnen immer noch weniger Glauben an Verschwörungstheorien. Die Wissenschaftler überprüften sogar, ob die KI-Chatbots akkurat waren, und das war (meistens) der Fall.

Wir sehen, dass zumindest manche Menschen durch ein drei Runden langes Gespräch mit einem Chatbot von einer Verschwörungstheorie abgebracht werden können.

Also können wir Dinge mit Chatbots reparieren?

Chatbots bieten eine gewisse Perspektive bei der Bewältigung zweier Herausforderungen im Zusammenhang mit der Beseitigung falscher Vorstellungen.

Weil es Computer sind, Sie werden nicht als solche wahrgenommen, die eine „Agenda“ verfolgenwodurch ihre Aussagen glaubwürdiger werden (insbesondere für jemanden, der das Vertrauen in öffentliche Institutionen verloren hat).

Chatbots können auch Argumente zusammenstellen, die besser sind als Fakten allein. Eine einfache Aufzählung von Fakten ist nur minimal wirksam gegen falsche Überzeugungen.

Chatbots sind allerdings kein Allheilmittel. Diese Studie zeigte, dass sie bei Menschen wirksamer waren, die keine starken persönlichen Gründe hatten, an eine Verschwörungstheorie zu glauben. Das heißt, sie werden Menschen, für die Verschwörungen eine Gemeinschaftsannahme sind, wahrscheinlich nicht helfen.

Sollte ich also ChatGPT verwenden, um meine Fakten zu überprüfen?

Diese Studie zeigt, wie überzeugend Chatbots sein können. Das ist großartig, wenn sie darauf vorbereitet sind, Menschen von Fakten zu überzeugen, aber was, wenn das nicht der Fall ist?

Chatbots können vor allem dann Fehlinformationen oder Verschwörungen verbreiten, wenn die ihnen zugrunde liegenden Daten falsch oder verzerrt sind: der Chatbot wird dies widerspiegeln.

Einige Chatbots sind konzipiert bewusst Vorurteile zu reflektieren oder Transparenz erhöhen oder einschränken. Sie können sogar mit Versionen von ChatGPT chatten, die angepasst sind an argumentieren, dass die Erde flach ist.

Eine zweite, beunruhigendere Möglichkeit besteht darin, dass Chatbots, wenn sie auf voreingenommene Eingabeaufforderungen reagieren (deren Voreingenommenheit den Suchenden möglicherweise nicht bewusst ist), Fehlinformationen (einschließlich Verschwörungstheorien) verbreiten könnten.

Wir wissen bereits, dass Menschen schlecht darin sind, Fakten zu überprüfen, und wenn sie Suchmaschinen dazu verwenden, reagieren diese Suchmaschinen auf ihre (unabsichtlich voreingenommenen) Suchbegriffe. Verstärkung des Glaubens an FehlinformationenChatbots sind wahrscheinlich das gleiche.

Letztendlich sind Chatbots ein Werkzeug. Sie können hilfreich sein, um Verschwörungstheorien zu entlarven – aber wie bei jedem Werkzeug kommt es auf die Fähigkeiten und Absichten des Werkzeugherstellers und des Benutzers an. Verschwörungstheorien beginnen mit Menschen, und es werden Menschen sein, die sie beenden.

Zur Verfügung gestellt von The Conversation

Dieser Artikel wurde erneut veröffentlicht von Das Gespräch unter einer Creative Commons-Lizenz. Lesen Sie die Originalartikel.

ph-tech