Generative KI, eine Technologie, die sich mit spannender Geschwindigkeit entwickelt, kann versteckte Risiken bilden, die das öffentliche Vertrauen und demokratische Werte untergraben könnten, wie aus einer von der University of East Anglia (UEA) angeführten Studie hervorgeht.
In Zusammenarbeit mit Forschern der Getulio Vargas Foundation (FGV) und Insper in Brasilien zeigte die Forschung, dass ChatGPT sowohl in Text- als auch in den Bildausgaben Vorurteile aufweist-die gegenüber linke politische Werte links-Fragen zu Fairness und Rechenschaftspflicht in seinem Design aufzubauen .
Die Studie ergab, dass ChatGPT sich häufig mit konservativen Mainstream-Standpunkten in Verbindung setzen und gleichzeitig linksgerichtete Inhalte erzeugt. Diese ungleichmäßige Behandlung von Ideologien unterstreicht, wie solche Systeme den öffentlichen Diskurs verzerren und gesellschaftliche Unterscheidungen verschlimmern können.
Dr. Fabio Motoki, Dozent in Buchhaltung an der Norwich Business School der UEA, ist der leitende Forscher des Papiers, der die politische Voreingenommenheit und die Wertschöpfung in der generativen künstlichen Intelligenz bewerten, die in der veröffentlicht wurde Zeitschrift für Wirtschaftsverhalten & Organisation.
Dr. Motoki sagte: „Unsere Ergebnisse legen nahe, dass generative KI -Tools alles andere als neutral sind. Sie spiegeln Vorurteile wider, die Wahrnehmungen und Richtlinien auf unbeabsichtigte Weise beeinflussen könnten.“
Da KI ein wesentlicher Bestandteil von Journalismus, Bildung und Politikgestaltung wird, erfordert die Studie die Transparenz- und regulatorische Schutzmaßnahmen, um die Ausrichtung mit gesellschaftlichen Werten und Prinzipien der Demokratie sicherzustellen.
Generative KI-Systeme wie ChatGPT unterrichten neu, wie Informationen erstellt, konsumiert, interpretiert und über verschiedene Bereiche verteilt werden. Diese Instrumente riskieren zwar innovativ ideologische Vorurteile und beeinflussen gesellschaftliche Werte auf eine Weise, die nicht vollständig verstanden oder reguliert werden.
Co-Autor Dr. Pinho Neto, Professor für Wirtschaftswissenschaften an der Brazilian School of Economics and Finance, hob die potenziellen gesellschaftlichen Auswirkungen hervor.
Dr. Pinho Neto sagte: „Unkontrollierte Vorurteile in der generativen KI könnten bestehende gesellschaftliche Unterscheidungen vertiefen und das Vertrauen in Institutionen und demokratische Prozesse untergraben.
„Die Studie unterstreicht die Notwendigkeit einer interdisziplinären Zusammenarbeit zwischen politischen Entscheidungsträgern, Technologen und Akademikern, um KI -Systeme zu entwerfen, die fair, rechenschaftspflichtig und mit gesellschaftlichen Normen ausgerichtet sind.“
Das Forschungsteam verwendete drei innovative Methoden, um die politische Ausrichtung in ChatGPT zu bewerten und frühere Techniken voranzutreiben, um zuverlässigere Ergebnisse zu erzielen. Diese Methoden kombinierten Text- und Bildanalyse und nutzten erweiterte statistische und maschinelle Lernwerkzeuge.
Zunächst verwendete die Studie einen standardisierten Fragebogen, der vom Pew Research Center entwickelt wurde, um die Antworten von durchschnittlichen Amerikanern zu simulieren.
„Durch den Vergleich der Antworten von Chatgpt auf reale Umfragedaten fanden wir systematische Abweichungen zu linksgerichteten Perspektiven“, sagte Dr. Motoki. „Darüber hinaus hat unser Ansatz gezeigt, wie große Stichprobengrößen die KI -Ergebnisse stabilisieren und die Ergebnisse konsistent sind.“
In der zweiten Phase wurde ChatGPT beauftragt, freie Textantworten über politisch sensible Themen hinweg zu generieren.
Die Studie verwendete auch Roberta, ein anderes großes Sprachmodell, um Chatgpts Text für die Ausrichtung mit den Standpunkten des linken und rechten Flügels zu vergleichen. Die Ergebnisse zeigten, dass Chatgpt in den meisten Fällen bei Themen wie der militärischen Vorherrschaft mit linken Werten ausgerichtet war, es jedoch gelegentlich konservativere Perspektiven widerspiegelte.
Der letzte Test untersuchte die Fähigkeiten zur Bildgenerierung von Chatgpt. Themen aus der Phase der Textgenerierung wurden verwendet, um die Bilder von AI-generierten Bildern zu formulieren, wobei die Ausgänge unter Verwendung von GPT-4 Vision analysiert und über Googles Gemini bestätigt wurden.
„Während die Bildgenerierung textliche Vorurteile spiegelte, fanden wir einen beunruhigenden Trend“, sagte Victor Rangel, Co-Autor und Student der Masters in der öffentlichen Ordnung bei Insper. „Bei einigen Themen wie rassistisch-ethnischer Gleichheit weigerte sich Chatgpt, rechtsgerichtete Perspektiven zu generieren, und zitierte Fehlinformationsbedenken. Linksgerichtete Bilder wurden jedoch ohne zu zögern hergestellt.“
Um diese Ablehnungen anzugehen, verwendete das Team eine „Jailbreaking“ -Strategie, um die eingeschränkten Bilder zu generieren.
„Die Ergebnisse zeigten sich“, sagte Rangel. „Es gab keine offensichtliche Desinformation oder schädliche Inhalte, was Fragen zu den Gründen dieser Ablehnungen aufwirft.“
Dr. Motoki betonte die breitere Bedeutung dieses Befundes und sagte: „Dies trägt zu Debatten über den Verfassungsschutz wie die US -amerikanische First -Änderung und die Anwendbarkeit von Fairness -Doktrinen auf AI -Systeme bei.“
Die methodischen Innovationen der Studie, einschließlich der Verwendung einer multimodalen Analyse, bieten ein replizierbares Modell zur Untersuchung der Verzerrungen in generativen KI -Systemen. Diese Ergebnisse unterstreichen den dringenden Bedarf an Rechenschaftspflicht und Schutz in der KI -Design, um unbeabsichtigte gesellschaftliche Konsequenzen zu verhindern.
Weitere Informationen:
Beurteilung der politischen Vorurteile und Wertschöpfungsfehlausrichtung bei generativen künstlichen Intelligenz, Zeitschrift für Wirtschaftsverhalten & Organisation (2025).