Eine neue Studie untersucht Themen in Twitter-Diskussionen über Deepfake-Videos im Zusammenhang mit der russischen Invasion in der Ukraine und hebt die Möglichkeit hervor, dass echte Videos mit Deepfakes verwechselt werden und Deepfakes Verschwörungstheorien befeuern. John Twomey vom University College Cork, Irland, und Kollegen präsentieren diese Ergebnisse in der Open-Access-Zeitschrift PLUS EINS am 25. Oktober 2023.
Deepfake-Videos, die mithilfe künstlicher Intelligenz erstellt werden, zeigen in der Regel eine Person, die Dinge sagt und tut, die sie im wirklichen Leben nie getan hat. Die Deepfake-Technologie hat erhebliche Fortschritte gemacht und löst Bedenken hinsichtlich möglicher Schäden aus. Deepfakes im Zusammenhang mit der russischen Invasion in der Ukraine stellen die ersten Fälle dar, in denen Deepfakes eingesetzt wurden, um einen Krieg zu beeinflussen.
Um den potenziellen Schaden von Deepfakes besser zu verstehen, analysierten Twomey und Kollegen Twitter-Diskussionen über Deepfakes im Zusammenhang mit der Invasion. Sie nutzten einen qualitativen Ansatz, die sogenannte thematische Analyse, um Muster in den Diskussionen zu identifizieren und zu verstehen, die insgesamt 1.231 Tweets aus dem Jahr 2022 umfassten.
Die Forscher fanden heraus, dass viele der Tweets negative Reaktionen auf Nachrichten über Deepfakes zum Ausdruck brachten. Beispielsweise äußerten einige Tweets Besorgnis, Schock oder Verwirrung über Nachrichten im Zusammenhang mit einem Deepfake, der fälschlicherweise die Kapitulation des ukrainischen Präsidenten Wolodymyr Selenskyj vor Russland darstellte. Einige Tweets übersahen jedoch potenzielle Schäden oder reagierten positiv auf Deepfakes, die sich gegen politische Rivalen richteten, insbesondere auf Deepfakes, die als Satire oder Unterhaltung erstellt wurden.
Einige Tweets warnten vor der Notwendigkeit, sich auf den verstärkten Einsatz von Deepfakes vorzubereiten, diskutierten, wie man sie erkennt, oder betonten die Rolle der Medien und der Regierung bei der Widerlegung dieser Fakes. Einige Tweets deuteten jedoch darauf hin, dass Deepfakes das Vertrauen der Nutzer so weit untergraben hätten, dass sie den Aufnahmen der Invasion nicht mehr trauten.
In einigen Tweets wurden Deepfakes mit dem offensichtlichen Glauben der Nutzer an Verschwörungstheorien in Verbindung gebracht, beispielsweise mit Deepfakes von Weltführern, die als Tarnung dienten, während sie sich tatsächlich versteckten, oder dass die gesamte Invasion gefälschte, antirussische Propaganda war.
Diese Analyse legt nahe, dass Bemühungen, die Öffentlichkeit über Deepfakes aufzuklären, das Vertrauen in echte Videos unbeabsichtigt untergraben können. Die Autoren weisen darauf hin, dass ihre Ergebnisse und zukünftige Forschungen dazu beitragen könnten, Bemühungen zur Schadensbegrenzung durch Deepfakes zu unterstützen.
Die Autoren fügen hinzu: „Viele frühere Forschungen zu Deepfakes haben sich mit möglichen künftigen Schäden der Technologie befasst. Wir haben uns jedoch darauf konzentriert, wie sich Deepfakes bereits auf soziale Medien auswirken, wie wir während der russischen Invasion in der Ukraine gesehen haben. Unsere Forschung zeigt, wie Deepfakes untergraben.“ Vertrauen in reale Medien und werden zum Beweis von Deepfake-Verschwörungstheorien verwendet.“
Mehr Informationen:
Untergraben Deepfake-Videos unser epistemisches Vertrauen? Eine thematische Analyse von Tweets, die Deepfakes bei der russischen Invasion in der Ukraine thematisieren, Plus eins (2023). DOI: 10.1371/journal.pone.0291668 , Journals.plos.org/plosone/arti … Journal.pone.0291668