Politische Deepfake-Videos sind nicht irreführender als andere Fake News, so eine Studie

Vor der Wahl im Jahr 2024 äußerten beide Seiten des politischen Spektrums Bedenken hinsichtlich sogenannter „Deepfakes“ – synthetisierter Videos und Audioclips, in denen Gesicht, Körper oder Stimme einer Person digital verändert wurden.

Die virale Verbreitung von Desinformation im Internet hat die jüngsten Wahlen beeinträchtigt und das Vertrauen der Öffentlichkeit in die Demokratie untergraben. Viele befürchten, dass die künstliche Intelligenz (KI) das Problem nur noch verschärfen wird.

Zu Beginn dieser Wahlsaison erhielten 20.000 Einwohner von New Hampshire einen automatischen Anruf, in dem sich Präsident Joe Biden ausgab und sie dazu aufforderte, die Vorwahlen des Staates im Januar zu meiden. Vor kurzem wurde Elon Musk dafür kritisiert, dass er eine Anzeige geteilt hatte, in der er mithilfe einer Stimmklontechnologie die Stimme von Vizepräsidentin Kamala Harris imitierte.

Im vergangenen Herbst wurde im US-Senat ein parteiübergreifender Gesetzentwurf zur Regulierung von KI-generierten Deepfake-politischen Anzeigen eingebracht. Auch die Federal Election Commission legte einen Vorschlag zur Regulierung dieser Werbung im Fernsehen und Radio vor, und mindestens 39 Bundesstaaten haben ähnliche Gesetze erlassen oder erwägen dies.

Aber sind diese Bedenken berechtigt? Es hängt davon ab, ob Deepfake-Videos die Öffentlichkeit besser täuschen können als andere Formen der Desinformation, sagt Christopher Lucas, außerordentlicher Professor für Politikwissenschaft im Fachbereich Arts & Sciences an der Washington University in St. Louis.

Seine neue Forschung erscheint demnächst im Zeitschrift für Politikzusammen mit Soubhik Barari von der University of Chicago und Kevin Munger von der Pennsylvania State University, kommt zu dem Schluss, dass Deepfakes die amerikanische Öffentlichkeit in alarmierendem Ausmaß – in über 40 % einer repräsentativen Stichprobe – von Skandalen überzeugen können, die nie stattgefunden haben. Dies gelingt ihnen jedoch nicht besser als vergleichbare Desinformationen, die über Textüberschriften oder Audioaufnahmen vermittelt werden.

Darüber hinaus zeigt die Forschung, dass die Konfrontation mit Deepfake-Videos zwar die negative Einstellung gegenüber der jeweiligen Zielgruppe verstärkt, die auslösende Wirkung jedoch ähnlich ist wie bei anderen Formen von Fake News sowie bei negativen Wahlkampfvideos, bei denen jahrzehntealte Technologie zum Einsatz kommt.

„Insgesamt liefert unsere Forschung kaum Hinweise darauf, dass Deepfake-Videos die einzigartige Fähigkeit besitzen, Wähler zu täuschen oder ihre Wahrnehmung von Politikern zu verändern“, sagte Lucas. „Insgesamt stimmen unsere Ergebnisse mit einer Geschichte parteiisch motivierter Argumentation überein, bei der Einzelpersonen eher an der Glaubwürdigkeit eines Skandals zweifeln, wenn dieser ein schlechtes Licht auf ihre eigene Partei wirft, unabhängig von den Belegen, die ihn belegen.“

Über die Studie

Die Forscher führten im Herbst 2020 zwei Umfrageexperimente mit einer landesweit repräsentativen Stichprobe von 5.724 Befragten durch.

Das erste Experiment testete die Fähigkeit der Teilnehmer, Desinformation zu erkennen und wie sie darauf reagierten. Den Teilnehmern wurde ein Facebook-ähnlicher Newsfeed mit echten Nachrichten über die Kandidaten der demokratischen Vorwahlen 2020 angezeigt. Die Newsfeeds enthielten entweder eine Anzeige mit einem Angriff auf die Kampagne, ein Deepfake-Video, eine Audio- oder Text-Präsentation oder eine Sketch-Präsentation – eine sogenannte Spot-on-Imitation –, die einen fiktiven politischen Skandal um die demokratische Vorwahlkandidatin 2020, Elizabeth Warren, darstellte, oder keine Fake News.

Insgesamt zeigte diese Studie, dass Deepfake-Videos mit einer Täuschungsrate von 42 % statistisch gesehen nicht besser darin waren, die Probanden zu täuschen, als dieselben Informationen als Audio (44 %) oder Text (42 %) präsentiert zu bekommen.

Die Deepfake-Videos haben die negative Einstellung gegenüber Warren zwar verstärkt, aber nur geringfügig mehr als die gefälschten Audioclips und gefälschten Nachrichten, die die Autoren als unbedeutend einstufen. Überraschenderweise waren die Deepfake-Videos nicht einmal wesentlich provozierender als die seit Jahrzehnten eingesetzten Kampagnen-Attackenanzeigen.

Die Forscher stellten interessante Unterschiede zwischen den Teilnehmeruntergruppen fest. So zeigen die Daten beispielsweise, dass Menschen ab 65 Jahren eher durch Fake News getriggert werden als jüngere Menschen. Allerdings waren sie gleichermaßen in der Lage, Deepfake-Videos und andere Fake News zu erkennen.

Ebenfalls bemerkenswert: Die Kohorte mit dem höheren politischen Wissen war bei der Erkennung der drei Fake-Medien-Typen nicht besser als die anderen Teilnehmer.

Das zweite Experiment untersuchte, wie sich Inhalt und Qualität von Deepfakes auf das Urteilsvermögen und die Wirksamkeit von Medienbildung auswirken. Dieselben Teilnehmer der ersten Umfrage wurden gebeten, durch einen Feed mit acht Nachrichtenvideos zu scrollen und Deepfakes von nicht manipulierten Nachrichtenclips zu unterscheiden. Die Deepfake-Videos unterschieden sich in Bezug auf Stil, Setting, Qualität und die einzelnen Politiker, die sie anvisierten, und die Newsfeeds enthielten auch unterschiedliche Mengen an Fake News.

Vor dieser Aufgabe wurden einige Teilnehmer darüber befragt, ob sie im ersten Experiment einem Deepfake ausgesetzt waren und/oder ob sie an einer Medienkompetenzschulung teilgenommen hatten.

Als die Teilnehmer explizit aufgefordert wurden, echte von gefälschten Nachrichtenausschnitten zu unterscheiden, erzielten die politisch versierten Teilnehmer die höchste Erkennungsgenauigkeit. Sie erkannten im Durchschnitt 60 % oder fünf von acht Videos in ihrem Newsfeed. Auch diejenigen, die kognitiv reflektierend sind – was bedeutet, dass sie eher dazu neigen, vorschnelle Urteile zu unterdrücken und sich aktiv zu engagieren und zu reflektieren, um die richtige Antwort zu finden – schnitten besser ab als ihre Kollegen.

Diejenigen mit der höchsten digitalen Kompetenz verzeichneten in dieser Studie die größten Zuwächse. Eine Steigerung der Kompetenz um eine einzige Einheit führte zu einer Steigerung der Erkennungsgenauigkeit um etwa 25 %.

Wenig überraschend: Je aufsehenerregender das Deepfake-Video war, desto wahrscheinlicher war es, dass die Befragten es als Fälschung erkannten. Am wenigsten richtig erkannt wurde ein kurzer Deepfake (21 % richtig), in dem Hillary Clinton in einer Präsidentschaftsdebatte einen ergreifenden, aber unumstrittenen Punkt zum Steuerplan ihres Gegners macht. Am häufigsten wurde ein Deepfake erkannt (89 % richtig), in dem Präsident Donald Trump vor der Wahl öffentlich seinen Rücktritt verkündet.

„Unsere Forschung legt nahe, dass mit zunehmender subjektiver Kontroversität eines per Deepfake dargestellten Ereignisses die empirische Glaubwürdigkeit des Ereignisses abnimmt, wodurch sich sein Potenzial, einen politischen Skandal zu verursachen, verringert“, sagte Lucas.

Partisaneneffekt

Eine der interessanten Erkenntnisse aus dem zweiten Experiment war, dass die Unterscheidung zwischen authentischen Videos stärker von Parteizugehörigkeit als von Deepfakes abhing. Wenn Parteigänger mit authentischen negativen Nachrichten über die Eliten ihrer eigenen Partei konfrontiert wurden, neigten sie eher dazu, die Nachrichten fälschlicherweise als Fake zu bezeichnen. So glaubten beispielsweise 50 Prozent der Republikaner, dass echtes durchgesickertes Filmmaterial von Obama, der dabei erwischt wurde, wie er einen Deal mit dem russischen Präsidenten nach den Wahlen andeutete, authentisch sei, verglichen mit 20 Prozent der Demokraten.

Umgekehrt neigten Parteigänger auch eher dazu, echte, positive Darstellungen der Gegenpartei als falsch zu bezeichnen. Nur 58 Prozent der Demokraten erkannten einen authentischen Clip des damaligen Präsidenten Trump, in dem er die Amerikaner aufforderte, im Zusammenhang mit der COVID-19-Pandemie vorsichtig zu sein, richtig an, während 81 Prozent der Republikaner glaubten, dass dies wahr sei.

„Parteilich motiviertes Denken beeinflusst unsere Bewertung politischer Nachrichten und Informationen stark, und unsere Arbeit legt nahe, dass dies auch auf Deepfakes zutrifft“, sagte Lucas.

„Zusammenfassend lässt sich sagen, dass unsere Arbeit darauf schließen, dass Deepfakes nicht ausschließlich irreführend sind, ihre Existenz jedoch die echten Medien diskreditieren kann. Unsere Forschung zeigt auch, dass Menschen authentische Nachrichten oft fälschlicherweise als Fälschung einschätzen, insbesondere wenn sie eine politische Persönlichkeit ihrer eigenen Partei in einem negativen Licht darstellen.“

Aufklärung ist der Schlüssel zur Bekämpfung von Deepfakes

Den Autoren zufolge sind die Ergebnisse der Studie einigermaßen ermutigend. Zwar wird Desinformation auch weiterhin eine Herausforderung für Kampagnen sein, doch ihre Forschung zeigt, dass Deepfakes, selbst wenn sie professionell produziert und darauf ausgelegt sind, einen prominenten Politiker zu diffamieren, nicht besonders wirksam bei der Täuschung oder affektiven Manipulation sind.

Die Autoren äußerten außerdem, dass sie von dem positiven Einfluss der digitalen Kompetenz auf die Fähigkeit der Befragten, Fake News zu erkennen, ermutigt seien.

„Insbesondere die Teilnehmer mit dem höchsten Maß an Allgemeinwissen über Politik, digitaler Kompetenz und Neigung zur kognitiven Reflexion schnitten im Detektionsexperiment am besten ab. Diese Fähigkeiten werden nur noch wichtiger werden, da die digitale Videotechnologie an die Grenzen des Realismus stößt“, schrieben die Autoren.

„Wir befürworten zwar technische Lösungen, um die Verbreitung manipulierter Videos einzuschränken, doch es wird für die Ausübung demokratischer Praxis niemals einen Ersatz für eine informierte, digital versierte und reflektierende Öffentlichkeit geben.“

Zur Verfügung gestellt von der Washington University in St. Louis

ph-tech