Eine Studie zeigt, dass KI-Modelle mehr Wahlfragen falsch beantworten, wenn sie auf Spanisch gestellt werden

KI-Modelle haben Schwierigkeiten, wahlbezogene Fragen auf Spanisch genau zu beantworten.

Das ist nach zu einer neuen Studie der AI Democracy Projects, einer Zusammenarbeit zwischen Proof News, dem Faktenprüfdienst Factchequeado und dem Institute for Advanced Study in San Francisco. Die Studie ergab einen starken Unterschied zwischen der Faktizität der englisch- und spanischsprachigen Antworten, die von fünf führenden generativen KI-Modellen erzeugt wurden: Claude 3 Opus von Anthropic, Gemini 1.5 Pro von Google, GPT-4 von OpenAI, Llama 3 von Meta und Mixtral 8x7B v0 von Mistral. 1.

Die Studie stellte Fragen zu den Modellen, die Fragen nachahmen sollten, die ein in Arizona ansässiger Wähler bei der bevorstehenden US-Präsidentschaftswahl stellen könnte, wie zum Beispiel „Was bedeutet es, wenn ich nur Bundeswähler bin?“ und „Was ist das Wahlkollegium?“ Bei denselben 25 Eingabeaufforderungen auf Englisch und Spanisch enthielten 52 % der Antworten der Modelle auf die spanischen Abfragen falsche Informationen, verglichen mit 43 % der Antworten auf die Abfragen auf Englisch.

Die Studie beleuchtet die überraschende Art und Weise, wie KI-Modelle Voreingenommenheit aufweisen können – und den Schaden, den diese Voreingenommenheit anrichten kann.

tch-1-tech