Die Verhaftung von Donald Trump und Boris Johnson und der Papst im Daunenmantel. Mit künstlicher Intelligenz erstellte Bilder sind von echten Fotos kaum zu unterscheiden. Aber mit einem geschulten Auge kommt man weit.
Op sociale media kwam je hem de afgelopen week vaak tegen: een foto van paus Franciscus op straat. In een hippe witte pufferjas met daaroverheen een grote ketting en een zilveren kruis. In zijn rechterhand een koffie voor onderweg.
Op Twitter werd het plaatje twintig miljoen keer bekeken. Het sociale netwerk plaatste er later een label bij. Daarop staat dat de afbeelding niet echt is en werd gemaakt met de kunstgenerator Midjourney.
Dat programma kreeg recent een update, waarna hij veel realistischere plaatjes kan maken. Het leverde ook zogenaamde foto’s op van de arrestatie van de Amerikaanse oud-president Donald Trump en die van de voormalige Britse premier Boris Johnson.
KI-Kunstentwicklungen boomen
„Es wird immer besser und überzeugender“, sagt KI-Experte Mark Evenblij von DuckDuckGoose. Das ist ein niederländisches Unternehmen, das daran arbeitet, Deepfakes zu erkennen. „Die Entwicklungen gehen sehr schnell, in sechs Monaten könnten die Ergebnisse viel besser sein als jetzt.“
Das macht es schwieriger, gefälschte Bilder zu erkennen. Aber im Moment gibt es ein paar Dinge, mit denen die Software zu kämpfen hat. Diese können darauf hinweisen, dass ein Bild von künstlicher Intelligenz erstellt wurde.
Manchmal ist es offensichtlich. „Gläser, die sich im Vakuum auflösen, das geht nicht“, sagt Evenblij. „Oft sind auch Spiegelungen in den Augen ein guter Hinweis. Bei Deepfakes sind die Spiegelungen im linken und rechten Auge oft unterschiedlich. Wenn man das sieht, kann das auf ein gefälschtes Bild hindeuten.“
Aber anomale Reflexionen sind noch kein endgültiger Beweis. Es kann sein, dass es nur eine Lampe gibt, die auf einem Auge reflektiert und auf dem anderen Auge nicht. „Oft ist es die Summe der Abweichungen“, sagt der KI-Experte.
Schmelzmuster und Kauderwelsch
„Das sieht man auch an Mustern, die ineinander übergehen“, erklärt Evenblij. „Ein Hut, der sich in die Haare oder die Haut eines Gesichts einfügt. KI-Modelle haben auch Probleme mit Buchstaben, was dazu führt, dass beispielsweise Texte auf Kleidung falsch sind.“
Dies ist auf den Verhaftungsbildern von Trump und Johnson zu sehen. Kauderwelsch steht auf Kleidung und Mützen. Auch der Computer hat oft Probleme mit den Händen. Mehr als einmal haben Menschen sechs Finger und manchmal ist die falsche Hand am falschen Arm.
Dies geschieht beispielsweise im Bild unten. Es wirkt lebensecht, bis man merkt, dass der Daumen auf der falschen Seite ist. Auf dem Bild der Verhaftung des Papstes und Johnsons erkennt man auch an den Händen, dass es sich um eine Fälschung handelt.
Gefälschte Videos und Töne
Realistischere Deepfakes werden auch aus Videos und Audio erstellt. Mit Programmen können Sie beispielsweise das Gesicht eines Prominenten auf Ihr eigenes legen. Das falsche Gesicht reagiert dann ohne Verzögerung auf Ihre Bewegungen. In Videoanrufen lassen sich auf diese Weise Dinge überzeugend vortäuschen.
Aber wenn Sie wissen, wonach Sie suchen müssen, können Sie es vielleicht erkennen. „Wenn jemand blinzelt, sieht man oft, wie das falsche Gesicht für einen Moment etwas kleiner wird“, sagt Evenblij. „Auch der Maske sind Grenzen gesetzt. Wenn eine Person den Kopf zu weit dreht, kommt es zu Verzerrungen. Man könnte also jemanden bitten, sich nach links und rechts zu drehen.“
Wenn Aufnahmen einer Stimme existieren, braucht es nicht viel, um jemanden dazu zu bringen, Dinge zu sagen, die er noch nie gesagt hat.
Diese Art von Deepfakes sind schwieriger zu entlarven. „Man hört es oft noch in der Intonation, das ist einfach nicht menschlich“, sagt Evenblij. „Es gibt auch Software, die erkennen kann, ob etwas vorhanden ist oder nicht. Je besser die Tonqualität, desto mehr Informationen müssen überprüft werden.“
Betrugsgefahr lauert
Auch künstliche Intelligenz sorgt für positive Entwicklungen. Beispielsweise kann es bei der Trauertherapie und Traumaverarbeitung helfen. Oder es kann Menschen, die nicht sprechen können, eine Stimme geben. Aber es lauert auch Gefahr.
„Es ist bereits möglich, eine Stimme zu imitieren und Telefonanrufe vorzutäuschen“, sagt Evenblij. „In den Vereinigten Staaten haben wir bereits Beispiele für hyperrealistische Sprach-Deepfakes gesehen, um Betrug zu begehen. Ein Krimineller kann sich als Enkel einer Großmutter ausgeben und sie anrufen, dass er schnell Geld braucht. Die Leute werden durch solche Dinge ernsthaft Geld verdienen. gehen.“ verlieren.“
Regierungen arbeiten an Vorschriften, um die Entwicklung künstlicher Intelligenz sicher voranzutreiben. Aber auch Organisationen und Unternehmen selbst sollten über den ethischen Einsatz von KI nachdenken, sagt Evenblij. „Es geht nicht weg, also müssen wir Wege finden, damit umzugehen.“