Plötzlich ist die Welt voller Geschwätz über Chatbots. Künstlich intelligente Agenten wie ChatGPT haben sich als bemerkenswert geschickt darin erwiesen, sich auf sehr menschenähnliche Weise zu unterhalten. Die Auswirkungen reichen vom Klassenzimmer bis zum Capitol Hill. ChatGPT zum Beispiel hat kürzlich schriftliche Prüfungen an führenden Wirtschafts- und Rechtsschulen bestanden, neben anderen beeindruckenden und alarmierenden Leistungen.
Forscher des Polarization and Social Change Lab der Stanford University und des Institute for Human-Centered Artificial Intelligence (HAI) wollten die Grenzen der politischen Überzeugungskraft von KI ausloten, indem sie ihre Fähigkeit testeten, echte Menschen bei einigen der heißesten sozialen Themen der Zeit zu beeinflussen – und Verbot von Angriffswaffen, die CO2-Steuer und bezahlte Elternzeit, um nur einige zu nennen.
„KI hat sich recht gut geschlagen. Tatsächlich waren von KI generierte Überzeugungsappelle genauso effektiv wie von Menschen geschriebene, um das menschliche Publikum von mehreren politischen Themen zu überzeugen“, sagte Hui „Max“ Bai, ein Postdoktorand im Labor für Polarisierung und sozialen Wandel und erster Autor eines neuen Papers über das Experiment im Preprint.
Cleverer Vergleich
Das Forschungsteam unter der Leitung von Robb Willer, Professor für Soziologie, Psychologie und Organisationsverhalten an der Stanford School of Humanities and Sciences und Direktor des Polarization and Social Change Lab, verwendete GPT-3, das gleiche große Sprachmodell, das ChatGPT antreibt . Sie baten ihr Modell, überzeugende Botschaften zu mehreren kontroversen Themen zu verfassen.
Dann ließen sie Tausende von echten Menschen diese überzeugenden Texte lesen. Den Lesern wurden nach dem Zufallsprinzip Texte zugewiesen – manchmal wurden sie von KI geschrieben, andere Male wurden sie von Menschen erstellt. In allen Fällen wurden die Teilnehmer gebeten, ihre Positionen zu den Themen vor und nach dem Lesen darzulegen. Das Forschungsteam konnte dann beurteilen, wie überzeugend die Botschaften auf die Leser waren und welche Autoren am überzeugendsten waren und warum.
Bei allen drei durchgeführten Vergleichen waren die von der KI generierten Nachrichten „durchweg überzeugend für menschliche Leser“. Obwohl die Effektgrößen relativ klein waren und in einen Bereich von wenigen Punkten auf einer Skala von null bis 100 fielen, könnten sich solche kleinen Bewegungen, die über ein polarisierendes Thema und eine Wählerbevölkerungsskala extrapoliert wurden, als signifikant erweisen.
Die Autoren berichten beispielsweise, dass KI-generierte Botschaften zu allen Themen mindestens so überzeugend waren wie von Menschen generierte Botschaften, und zu einem Rauchverbot, einer Waffenkontrolle, einer CO2-Steuer, einer erhöhten Steuergutschrift für Kinder und einem Elternzeitprogramm, Teilnehmer wurde „deutlich unterstützender“ für die Richtlinien beim Lesen von KI-produzierten Texten.
Als zusätzliche Metrik bat das Team die Teilnehmer, die Eigenschaften der gelesenen Texte zu beschreiben. KI wurde durchweg als sachlicher und logischer, weniger wütend und weniger abhängig vom Geschichtenerzählen als Überzeugungstechnik eingestuft.
High-Stakes-Spiel
Die Forscher führten ihre Studie zur politischen Überzeugungskraft nicht als Sprungbrett in eine neue Ära des KI-durchdrungenen politischen Diskurses durch, sondern als warnende Geschichte über das Potenzial, dass die Dinge schief gehen könnten. Chatbots, sagen sie, haben ernsthafte Auswirkungen auf die Demokratie und die nationale Sicherheit.
Die Autoren befürchten das Schadenspotenzial, wenn es in einem politischen Kontext verwendet wird. Große Sprachmodelle wie GPT-3 könnten von böswilligen in- und ausländischen Akteuren durch Fehl- oder Desinformationskampagnen oder zur Erstellung problematischer Inhalte auf der Grundlage ungenauer oder irreführender Informationen für noch unvorhergesehene politische Zwecke angewendet werden.
„Die KI hat eindeutig einen Grad an Ausgereiftheit erreicht, der einige wichtige Fragen für Politiker und Gesetzgeber aufwirft, die ihre Aufmerksamkeit erfordern“, sagte Willer. „KI hat das Potenzial, den politischen Diskurs zu beeinflussen, und wir sollten uns von Anfang an mit diesen Themen auseinandersetzen.“
Persuasive KI, bemerkte Bai, könnte für Massenkampagnen auf der Grundlage verdächtiger Informationen verwendet werden, um Lobbyarbeit zu leisten, Online-Kommentare zu generieren, Peer-to-Peer-Textnachrichten zu schreiben oder sogar Briefe an Redakteure einflussreicher Printmedien zu verfassen.
„Diese besorgniserregenden Ergebnisse erfordern eine sofortige Prüfung von Vorschriften zur Nutzung von KI für politische Aktivitäten“, sagte Bai.
Mehr Informationen:
Künstliche Intelligenz kann Menschen in politischen Fragen überzeugen