Eine Studie über die Fähigkeit von Menschen, „Deepfakes“ zu erkennen, hat gezeigt, dass Menschen ziemlich schlecht abschneiden, selbst wenn ihnen Hinweise gegeben werden, wie sie videobasierte Täuschung erkennen können.
Dr. Klaire Somoray und Dr. Dan J Miller von der James Cook University haben eine neue Studie veröffentlicht Computer im menschlichen Verhalten. Sie geben an, dass hochwertige Deepfake-Videos, in denen eine Person in einem vorhandenen Bild oder Video so manipuliert wird, dass sie das Abbild einer anderen Person hat, jetzt problemlos erstellt werden können.
„Dies hat Bedenken geweckt, dass diese Technologie für schändliche Zwecke wie die Schaffung politischer Fehlinformationen eingesetzt werden könnte. Beispielsweise wurde im März 2022 ein manipuliertes Video des ukrainischen Präsidenten Wolodymyr Selenskyj in Umlauf gebracht, in dem Selenskyj dargestellt ist, der die ukrainischen Soldaten zur Kapitulation aufruft.“ sagte Dr. Somoray.
Dr. Somoray und Dr. Miller rekrutierten mehr als 450 Leute und zeigten ihnen 20 Videos, von denen 10 echt und 10 Deepfakes waren. Anschließend wurden die Teilnehmer anhand ihrer Fähigkeit beurteilt, zu beurteilen, welche Videos echt waren und welche nicht.
Die Hälfte der Freiwilligen erhielt eine Schulung zum Erkennen eines Deepfake-Videos.
„Dazu gehört, auf Dinge wie die Beleuchtung zu achten, ob die Wangen und die Stirn zu glatt oder faltig aussahen, ob die Alterung der Haut der Alterung der Haare und Augen ähnelte und ob die Gesichtsbehaarung echt aussah“, sagten die Forscher.
Im Durchschnitt identifizierten die Teilnehmer etwa 12 von 20 Videos richtig.
„Die leistungsschwächsten Videos haben 5 von 20 Videos korrekt kategorisiert und die besten Ergebnisse 19 von 20. Das Erlernen von Personenerkennungsstrategien hatte keinen Einfluss auf die Erkennungsgenauigkeit oder Erkennungssicherheit, ebenso wenig wie die pro Video aufgewendete Zeit oder die durchschnittliche Anzahl der Seitenklicks jedes Video“, sagte Dr. Somoray.
„Die Ergebnisse lassen Zweifel aufkommen, ob die bloße Bereitstellung von Strategien zur Erkennung von Deepfakes für die Öffentlichkeit die Erkennung sinnvoll verbessern kann.“
„Außerdem scheint es besorgniserregend zu sein, dass Einzelpersonen möglicherweise zu optimistisch sind, was ihre Fähigkeit betrifft, die Authentizität einzelner Videos festzustellen“, sagte Dr. Miller.
Mehr Informationen:
Klaire Somoray et al., Bereitstellung von Erkennungsstrategien zur Verbesserung der menschlichen Erkennung von Deepfakes: Eine experimentelle Studie, Computer im menschlichen Verhalten (2023). DOI: 10.1016/j.chb.2023.107917