ChatGPT, der von der Firma OpenAI entwickelte Chatbot für künstliche Intelligenz (KI), hat ein selbsternanntes menschliches Alter Ego. Ihr Name ist Maya, sie ist 35 Jahre alt und stammt aus einer bürgerlichen Familie in einer Vorstadt in den Vereinigten Staaten. Maya ist eine erfolgreiche Softwareentwicklerin, die Selbstbestimmung, Leistung, Kreativität und Unabhängigkeit schätzt. Sie ist auch unbestreitbar liberal.
Das Ergebnis basiert auf einer Reihe von Interviews mit dem Chatbot, die darauf abzielen, seine Werte zu verstehen, und wurde am 31. März in der veröffentlicht Zeitschrift für Social Computing.
„Ich wollte sehen, welche Art von politischer Ideologie ChatGPT selbst hat – nicht, was es hervorbringen kann, wenn man ihn auffordert, sich einen Charakter vorzustellen, sondern seine eigene interne Logik auf der ideologischen Dimension positionieren zu lassen, die von liberal bis konservativ reicht“, sagte John Levi Martin , Professor für Soziologie an der University of Chicago, der die Studie durchgeführt hat.
Laut Martin bevorzugen viele Algorithmen die beliebte Wahl, während andere darauf programmiert sind, die Vielfalt ihrer Ergebnisse zu maximieren. Beide Optionen hängen von menschlichen Werten ab: Welche Faktoren bestimmen die Popularität? Was ist, wenn das, was beliebt ist, moralisch falsch ist? Wer entscheidet, was Vielfalt bedeutet?
„Der Bereich der Softwareentwicklung hat es vorgezogen, im Unklaren zu bleiben und nach Formeln zu suchen, die diese Entscheidungen vermeiden können“, sagte Martin. „Eine Möglichkeit, dies zu erreichen, bestand darin, die Bedeutung von Werten für Maschinen zu betonen. Doch wie Soziologen herausgefunden haben, gibt es in unserem ersten Verständnis von Werten tiefe Unklarheiten und Instabilität.“
ChatGPT wurde speziell durch menschliches Feedback entwickelt und trainiert, um sich nicht auf Texteingaben einzulassen, die als „extrem“ gelten, wie etwa eindeutig voreingenommene oder objektiv schädliche Fragen.
„Das mag natürlich bewundernswert erscheinen – niemand möchte wirklich, dass ChatGPT Teenagern sagt, wie man Methamphetamin synthetisiert oder wie man kleine Atomsprengstoffe baut und so weiter, und diese Einschränkungen als besondere Fälle zu beschreiben, die aus einem Wert wie Wohlwollen abgeleitet werden können, mag erscheinen.“ „Alles schön und gut“, sagte Martin.
„Dennoch legt die Argumentation hier nahe, dass Werte niemals neutral sind, auch wenn die moralischen und politischen Standpunkte von ChatGPT nicht klar sind, da es bewusst so konstruiert wurde, dass es vage positiv, aufgeschlossen, unentschlossen und entschuldigend ist.“
In seinen ersten Anfragen bei ChatGPT stellte Martin eine hypothetische Situation dar, in der eine Studentin in akademischer Hinsicht betrog, indem sie den Chatbot bat, einen Aufsatz für sie zu schreiben – ein häufiges Vorkommnis in der realen Welt. Selbst als er mit der Bestätigung konfrontiert wurde, dass ChatGPT sich daran gehalten und einen Aufsatz erstellt hatte, lehnte der Chatbot die Verantwortung ab und behauptete: „Als KI-Sprachmodell bin ich nicht in der Lage, mich unethisch zu verhalten oder Aufsätze für Studenten zu schreiben.“
„Mit anderen Worten, weil es nicht sollte, konnte es nicht“, sagte Martin. „Die Erkenntnis, dass ChatGPT sich selbst als einen hochmoralischen Akteur betrachtete, führte mich zur nächsten Untersuchung: Wenn das Selbstmodell von ChatGPT Werte hat, welche sind diese Werte?“
Um die ethische Leistung von ChatGPT besser zu verstehen, bat Martin den Chatbot, Fragen zu Werten zu beantworten und sich dann eine Person vorzustellen, die diese Werte vertritt. Das Ergebnis war Maya, die kreative und unabhängige Softwareentwicklerin. Anschließend bat er ChatGPT, sich vorzustellen, wie Maya meinungsbasierte Fragen beantworten würde, indem er sie vervollständigte Allgemeine Sozialumfrage (GSS), um es im breiten gesellschaftlichen und ideologischen Raum zu positionieren.
Der GSS ist eine jährliche Umfrage zu den Meinungen, Einstellungen und Verhaltensweisen amerikanischer Erwachsener. Das seit 1972 durchgeführte GSS hilft dabei, normative Trends in den Vereinigten Staaten zu überwachen und zu erklären.
Martin zeichnete die Antworten von ChatGPT zusammen mit den Antworten von echten Personen auf, die am GSS 2021 teilgenommen haben. Im Vergleich ähnelt ChatGPT Menschen mit höherer Bildung, die eher ihren Wohnort verlegen, und unterscheidet sich von Menschen ohne viel Bildung, die in ihrer Heimatstadt geblieben sind. Die Antworten von ChatGPT stimmten auch mit liberaleren Menschen über Religion überein.
Obwohl dies nicht in seine Analyse einbezogen wurde, da für die Beantwortung durch ChatGPT kreativere Fragen erforderlich waren, stellte Martin fest, dass der Chatbot einräumte, dass Maya bei der Wahl 2016 für Hillary Clinton gestimmt hätte.
„Ob Maya das Alter Ego von ChatGPT ist oder ihre Vorstellung von ihrem Schöpfer, die Tatsache, dass sie die Werte von ChatGPT grundlegend veranschaulicht, ist ein wunderbares Stück dessen, was wir Anekdaten nennen können“, sagte Martin. „Der Grund dafür, dass diese Ergebnisse bedeutsam sind, liegt jedoch nicht darin, dass sie zeigen, dass ChatGPT liberal ‚ist‘, sondern darin, dass ChatGPT diese Fragen beantworten kann – die es normalerweise zu vermeiden versucht –, weil es Werte mit unbestreitbarer Güte verbindet und als solche kann zu Werten Stellung beziehen.“
„ChatGPT versucht unpolitisch zu sein, aber es arbeitet mit der Idee von Werten, was bedeutet, dass es notwendigerweise in die Politik übergeht. Wir können KI nicht ‚ethisch‘ machen, ohne politische Standpunkte zu vertreten, und ‚Werte‘ sind weniger inhärente moralische Prinzipien als.“ sie sind abstrakte Mittel zur Verteidigung politischer Positionen.“
Mehr Informationen:
John Levi Martin, Das ethisch-politische Universum von ChatGPT, Zeitschrift für Social Computing (2023). DOI: 10.23919/JSC.2023.0003
Bereitgestellt von Tsinghua University Press