Erklärt: Was sind Deepfakes und wie erkennt man sie?

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Von künstlicher Intelligenz (KI) generierte gefälschte Videos, mit denen normale Benutzer leicht manipuliert werden können, sind heute weit verbreitet. Diese Videos sind entstanden, da moderne Computer die Realität viel besser simulieren können. Zum Beispiel hängt das moderne Kino stark von computergenerierten Sets, Kulissen, Charakteren und sogar visuellen Effekten ab. Diese digitalen Orte und Requisiten haben die physischen ersetzt, da diese Szenen kaum von der Realität zu unterscheiden sind. Eines der neuesten gemeinsamen Dinge in der Computerbildtechnik, Deepfakes werden durch Programmieren von KI entwickelt, um eine Person in einem aufgezeichneten Video wie eine andere aussehen zu lassen.
Was sind Deepfakes?
Der Begriff „Deepfake“ leitet sich von einer Form der künstlichen Intelligenz namens Deep Learning ab. Wie der Name schon sagt, werden Deepfakes verwendet tiefes Lernen um Bilder von gefälschten Ereignissen zu machen. Deep-Learning-Algorithmen können sich selbst beibringen, wie man Probleme mit großen Datensätzen löst. Diese Technologie wird dann verwendet, um Gesichter in Videos und anderen digitalen Inhalten auszutauschen, um realistisch aussehende gefälschte Medien zu erstellen. Darüber hinaus sind Deepfakes nicht nur auf Videos beschränkt, diese Technologie kann verwendet werden, um andere gefälschte Inhalte wie Bilder, Audio usw. zu erstellen.
Wie arbeiten Sie?
Es gibt mehrere Methoden zum Erstellen von Deepfakes, die gebräuchlichste hängt jedoch von der Verwendung von Deep Neural Networks ab, die Autoencoder beinhalten, um eine Face-Swapping-Technik anzuwenden. Normalerweise werden diese auf einem Zielvideo erstellt, das als Grundlage für den Deepfake verwendet wird, und dann verwendet die KI eine Sammlung von Videoclips der Person, die Sie in das Ziel einfügen möchten, um die tatsächliche Person im Video zu ersetzen.
Der Autoencoder ist ein tief lernendes KI-Programm, das mehrere Videoclips untersuchen kann, um zu verstehen, wie eine Person aus verschiedenen Blickwinkeln und Situationen aussieht. Durch das Auffinden gemeinsamer Merkmale wird das Gesicht der Person abgebildet und durch das im Zielvideo ersetzt.
Generative gegnerische Netzwerke (GANs) sind eine weitere Art des maschinellen Lernens, mit der Deepfakes erstellt werden können. GANs sind fortschrittlicher, da sie es Deepfake-Detektoren erschweren, sie zu entschlüsseln, da sie mehrere Runden verwenden, um Fehler im Deepfake zu erkennen und zu verbessern. Experten glauben, dass Deepfakes im Zuge der technologischen Entwicklung immer raffinierter werden
Heutzutage ist das Generieren von Deepfakes sogar für Anfänger einfach, da mehrere Apps und Softwares bei der Erstellung helfen. GitHubeine Open-Source-Community für Softwareentwicklung, ist auch ein Ort, an dem eine riesige Menge an Deepfake-Software zu finden ist.
Wie erkennt man Deepfakes?
Online-Nutzer sind auch bewusster geworden und darauf eingestellt, gefälschte Nachrichten zu erkennen. Damit die Cybersicherheit verbessert werden kann, muss mehr Deepfake-Erkennungstechnologie entwickelt werden, um die Verbreitung von Fehlinformationen zu verhindern. Bisher wurden Deepfakes erkannt, indem man dem Blinzeln der Person in einem Video folgte. Wenn eine Person nie oder sehr häufig oder unnatürlich blinzelt, besteht die Möglichkeit, dass es sich bei dem Video um einen Deepfake handelt. Neuere Deepfakes konnten dieses Problem jedoch überwinden. Eine andere Möglichkeit, einen Deepfake zu erkennen, besteht darin, Haut, Haare oder Gesichter zu überwachen, die möglicherweise unschärfer erscheinen als die Umgebung, in der sie platziert sind, und der Fokus kann unnatürlich weich aussehen.
Manchmal behalten Deepfake-Algorithmen die Beleuchtung der Clips bei, die als Modelle für das gefälschte Video verwendet wurden. Auch die schlecht abgestimmte Beleuchtung im Zielvideo kann einen Deepfake verraten. Wenn das Video gefälscht ist und der Originalton nicht so sorgfältig manipuliert wurde, scheint der Ton möglicherweise nicht mit der Person übereinzustimmen.

toi-tech