Forscher warnen: Künstliche Intelligenz zur Lügenerkennung könnte Menschen zu unbedachten Anschuldigungen verleiten

Obwohl Menschen viel lügen, scheuen sie sich normalerweise, andere der Lüge zu bezichtigen, da es soziale Normen gibt, die falsche Anschuldigungen und Höflichkeit vorschreiben. Künstliche Intelligenz (KI) könnte diese Regeln jedoch bald auf den Kopf stellen.

In einer Studie veröffentlicht 27. Juni im Journal iWissenschaftzeigen Forscher, dass Menschen viel eher dazu neigen, andere der Lüge zu bezichtigen, wenn eine KI eine solche Anschuldigung erhebt. Die Ergebnisse geben Einblicke in die sozialen Auswirkungen des Einsatzes von KI-Systemen zur Lügenerkennung, was politischen Entscheidungsträgern bei der Implementierung ähnlicher Technologien als Orientierung dienen könnte.

„In unserer Gesellschaft gibt es starke, fest etablierte Normen im Hinblick auf Lügenvorwürfe“, sagt Hauptautor Nils Köbis, ein Verhaltensforscher an der Universität Duisburg-Essen.

„Es würde viel Mut und Beweise erfordern, um andere offen der Lüge zu bezichtigen. Doch unsere Studie zeigt, dass KI zu einer Ausrede werden könnte, hinter der sich Menschen bequem verstecken können, um nicht für die Folgen von Anschuldigungen zur Verantwortung gezogen zu werden.“

Die menschliche Gesellschaft funktioniert seit langem auf der Grundlage der Wahrheitsvorgabetheorie, die besagt, dass Menschen im Allgemeinen davon ausgehen, dass das, was sie hören, wahr ist. Aufgrund dieser Tendenz, anderen zu vertrauen, sind Menschen schrecklich darin, Lügen zu erkennen. Frühere Untersuchungen haben gezeigt, dass Menschen beim Versuch, Lügen zu erkennen, nicht besser abschneiden als der Zufall.

Köbis und sein Team wollten wissen, ob sich durch die Präsenz künstlicher Intelligenz die etablierten gesellschaftlichen Normen und Verhaltensweisen im Zusammenhang mit Anschuldigungen ändern würden.

Um dies zu untersuchen, bat das Team 986 Personen, eine wahre und eine falsche Beschreibung dessen zu schreiben, was sie nächstes Wochenende vorhaben. Anschließend trainierte das Team mit den Daten einen Algorithmus, um ein KI-Modell zu entwickeln, das in 66 % der Fälle wahre und falsche Aussagen richtig identifizieren konnte – eine Genauigkeit, die deutlich über der eines durchschnittlichen Menschen liegt.

Als nächstes rekrutierte das Team mehr als 2.000 Personen als Richter, die eine Aussage lesen und entscheiden sollten, ob sie wahr oder falsch ist. Die Forscher teilten die Teilnehmer in vier Gruppen ein – „Basis“, „erzwungen“, „blockiert“ und „Wahl“.

In der Basisgruppe antworteten die Teilnehmer ohne Hilfe der KI mit „Richtig“ oder „Falsch“. In der Zwangsgruppe erhielten die Teilnehmer immer eine KI-Vorhersage, bevor sie ihre eigene Entscheidung trafen. In den blockierten und Auswahlgruppen hatten die Teilnehmer die Möglichkeit, eine von der KI generierte Vorhersage zu erhalten. Personen, die die Vorhersage von der blockierten Gruppe anforderten, erhielten sie nicht, während Personen in der Auswahlgruppe sie erhielten.

Das Forschungsteam stellte fest, dass die Teilnehmer der Basisgruppe eine Genauigkeit von 46 % hatten, wenn es darum ging, Aussagen als wahr oder falsch zu identifizieren. Nur 19 % der Personen in der Gruppe behaupteten, die Aussagen, die sie lasen, seien falsch, obwohl sie wussten, dass 50 % der Aussagen falsch waren. Dies bestätigt, dass Menschen dazu neigen, andere nicht des Lügens zu bezichtigen.

In der Zwangsgruppe, in der die Teilnehmer eine KI-Vorhersage erhielten, egal ob sie diese wollten oder nicht, behaupteten über ein Drittel der Teilnehmer, die Aussagen seien falsch. Die Quote ist deutlich höher als in der Basis- und Blockgruppe, die keine KI-Vorhersagen erhielt.

Wenn die KI vorhersagte, dass eine Aussage wahr sei, sagten nur 13 % der Teilnehmer, dass die Aussage falsch sei. Wenn die KI jedoch vorhersagte, dass eine Aussage falsch sei, gaben mehr als 40 % der Teilnehmer an, dass die Aussage falsch sei.

Darüber hinaus übernahmen überwältigende 84 % der Teilnehmer, die eine KI-Vorhersage angefordert und erhalten hatten, die Vorhersage und erhoben Anschuldigungen, als die KI sagte, die Aussage sei falsch.

„Das zeigt, dass die Menschen, wenn sie erst einmal einen solchen Algorithmus zur Hand haben, sich darauf verlassen und vielleicht ihr Verhalten ändern. Wenn der Algorithmus etwas als Lüge entlarvt, sind die Menschen bereit, darauf hereinzufallen. Das ist ziemlich besorgniserregend und zeigt, dass wir mit dieser Technologie wirklich vorsichtig sein sollten“, sagt Köbis.

Interessanterweise schienen die Leute davor zurück zu sein, KI als Lügenerkennungstool zu verwenden. In den blockierten Gruppen und der Auswahlgruppe forderte nur ein Drittel der Teilnehmer die KI-Vorhersage an.

Das Ergebnis überraschte das Team, denn die Forscher hatten den Teilnehmern im Vorfeld erklärt, dass der Algorithmus Lügen besser erkennen könne als Menschen. „Vielleicht liegt es an diesem sehr robusten Effekt, den wir in verschiedenen Studien gesehen haben, dass Menschen zu viel Vertrauen in ihre Fähigkeiten zur Lügenerkennung haben, obwohl Menschen darin wirklich schlecht sind“, sagt Köbis.

KI ist dafür bekannt, dass sie häufig Fehler macht und Vorurteile verstärkt. Angesichts der Ergebnisse schlägt Köbis vor, dass politische Entscheidungsträger den Einsatz der Technologie bei wichtigen und sensiblen Fragen wie der Gewährung von Asyl an den Grenzen überdenken sollten.

„Der Hype um KI ist riesig und viele Menschen glauben, dass diese Algorithmen wirklich sehr, sehr leistungsfähig und sogar objektiv sind. Ich mache mir wirklich Sorgen, dass dies dazu führen könnte, dass die Menschen sich zu sehr darauf verlassen, selbst wenn es nicht so gut funktioniert“, sagt Köbis.

Mehr Informationen:
Lügenerkennungsalgorithmen stören die soziale Dynamik des Anschuldigungsverhaltens, iWissenschaft (2024). DOI: 10.1016/j.isci.2024.110201. www.cell.com/iscience/fulltext … 2589-0042(24)01426-3

ph-tech