So erkennen Sie KI-Deepfakes, die Fehlinformationen über Wahlen verbreiten

Generative KI-Systeme wie ChatGPT werden anhand großer Datensätze trainiert, um als Reaktion auf Eingabeaufforderungen schriftliche, visuelle oder Audioinhalte zu erstellen. Wenn sie mit echten Bildern gefüttert werden, können einige Algorithmen gefälschte Fotos und Videos erzeugen, die als Deepfakes bezeichnet werden.

Inhalte, die mit Systemen der generativen künstlichen Intelligenz (KI) erstellt wurden, spielen bei der Präsidentschaftswahl 2024 eine Rolle. Obwohl diese Tools harmlos eingesetzt werden können, ermöglichen sie es Kriminellen, Fehlinformationen schneller und realistischer als bisher zu verbreiten, was möglicherweise ihren Einfluss auf die Wähler erhöht.

In- und ausländische Gegner können Deepfakes und andere Formen generativer KI nutzen, um falsche Informationen über die Plattform eines Politikers zu verbreiten oder seine Reden zu manipulieren, sagte Thomas Scanlon, Hauptforscher am Software Engineering Institute der Carnegie Mellon University und außerordentlicher Professor am Heinz College of Information Systems und öffentliche Ordnung.

„Die Sorge bei Deepfakes ist, wie glaubwürdig sie sein können und wie problematisch es ist, sie anhand authentischer Aufnahmen zu unterscheiden“, sagte Scanlon.

Laut Associated Press haben die Wähler mehr lächerliche KI-generierte Inhalte gesehen – wie zum Beispiel ein Foto von Donald Trump, der scheinbar auf einem Löwen reitet – als einen Ansturm hyperrealistischer Deepfakes voller Unwahrheiten. Dennoch befürchtet Scanlon, dass Wähler am oder kurz vor dem Wahltag schädlicheren generativen Inhalten ausgesetzt sein werden, etwa Videos, in denen Wahlhelfer zeigen, dass ein offener Wahllokal geschlossen sei.

Diese Art von Fehlinformationen könnten die Wähler daran hindern, ihre Stimme abzugeben, da nur wenig Zeit bleibt, die falschen Informationen zu korrigieren, sagte er. Insgesamt könnte die durch KI erzeugte Täuschung das Vertrauen der Wähler in die demokratischen Institutionen und gewählten Beamten des Landes weiter untergraben, so das Block Center for Technology and Society der Universität, das am Heinz College of Information Systems and Public Policy angesiedelt ist.

„Die Menschen werden einfach ständig mit Informationen bombardiert, und es liegt am Verbraucher, zu entscheiden: Welchen Wert haben sie, aber auch, wie groß ist ihr Vertrauen in sie? Und ich denke, das ist wirklich der Punkt, an dem Einzelpersonen Schwierigkeiten haben könnten“, sagte Randall Trzeciak , Direktor des Heinz College Master of Science in Information Security Policy & Management (MSISPM)-Programms.

Sprünge und Grenzen in der generativen KI

Seit Jahren verbreiten Menschen Fehlinformationen, indem sie Fotos und Videos mit Tools wie Adobe Photoshop manipulieren, sagte Scanlon. Diese Fälschungen sind leichter zu erkennen und für Kriminelle schwieriger in großem Maßstab zu reproduzieren. Generative KI-Systeme ermöglichen es Nutzern jedoch, schnell und einfach Inhalte zu erstellen, auch wenn sie nicht über schicke Computer oder Software verfügen.

Menschen fallen aus verschiedenen Gründen auf Deepfakes herein, sagten Dozenten am Heinz College. Wenn der Betrachter ein Smartphone verwendet, ist es wahrscheinlicher, dass er die schlechte Qualität eines Deepfakes auf einen schlechten Mobilfunkdienst zurückführt. Wenn ein Deepfake eine Überzeugung widerspiegelt, die der Betrachter bereits hat – zum Beispiel, dass ein politischer Kandidat die abgebildete Aussage machen würde – ist es weniger wahrscheinlich, dass der Betrachter sie hinterfragt.

Die meisten Menschen haben nicht die Zeit, jedes Video, das sie sehen, auf Fakten zu überprüfen, was bedeutet, dass Deepfakes mit der Zeit Zweifel säen und das Vertrauen untergraben können, schrieb Ananya Sen, Assistenzprofessorin für Informationstechnologie und Management am Heinz College, in einer Erklärung. Er befürchtet, dass Livestreams zur Stimmauszählung zwar die Transparenz erhöhen, aber für Deepfakes missbraucht werden könnten.

Sobald die falschen Informationen ans Licht kommen, gibt es kaum noch Möglichkeiten, sie zu korrigieren und den Geist wieder in die Flasche zu stecken.

Im Gegensatz zu früheren Mitteln zur Erzeugung von Desinformation könne generative KI auch dazu genutzt werden, maßgeschneiderte Nachrichten an Online-Communities zu senden, sagte Ari Lightman, Professor für digitale Medien und Marketing am Heinz College. Wenn ein Mitglied der Community den Inhalt versehentlich teilt, glauben die anderen möglicherweise die Botschaft, weil sie der Person vertrauen, die ihn geteilt hat.

Gegner „beobachten die Verhaltensmuster der Verbraucher und die Art und Weise, wie Menschen mit Technologie interagieren, in der Hoffnung, dass einer von ihnen auf eine Information klickt, die zu einer viralen Verbreitung von Desinformation führen könnte“, sagte Lightman.

Es ist schwierig, die Urheber KI-generierter Fehlinformationen zu enttarnen. Die Ersteller können verwenden virtuelle private Netzwerke und andere Mechanismen, um ihre Spuren zu verbergen. Länder mit feindseligen Beziehungen zu den USA setzen diese Technologie wahrscheinlich als Waffe ein, sagte Lightman, aber er ist auch besorgt über Einzelpersonen und Terrorgruppen, die möglicherweise unter dem Radar operieren.

Was Wähler wissen müssen

Menschen sollten ihrer Intuition vertrauen und versuchen, Videos zu überprüfen, von denen sie glauben, dass sie Deepfakes sein könnten, sagte Scanlon. „Wenn Sie ein Video sehen, das Zweifel an seiner Echtheit aufkommen lässt, sollten Sie diese Zweifel anerkennen“, sagte er.

Hier sind einige Anzeichen dafür, dass es sich laut Scanlon bei einem Video um einen Deepfake handeln könnte:

  • Sprungschnitte im Schnitt: Heutige KI-Systeme sind weitgehend nicht in der Lage, lange Deepfake-Videos aus einer Perspektive zu erstellen. Der Blickwinkel des Videos kann sich alle paar Sekunden ändern oder das Motiv kann von mehreren Seiten in abgehackter Folge gezeigt werden.
  • Inkonsistenzen bei der Beleuchtung: Deepfake-Videos enthalten häufig Schatten, die – unrealistischerweise – aus mehr als einer Richtung kommen oder nur für einen Teil des Videos vorhanden sind. Oft flackert die Beleuchtung des Videos.
  • Nicht übereinstimmende Reaktionen: Das Video zeigt möglicherweise die Person, die mit ernstem Gesicht etwas Schockierendes sagt, oder umgekehrt. Wenn andere Personen im Video zu sehen sind, stimmen deren Reaktionen möglicherweise nicht mit der Botschaft oder dem Ton des Betreffs überein.
  • Unstimmigkeiten im Hautton oder mangelnde Gesichtssymmetrie: Betrachter können erhebliche Unterschiede im Hautton des Motivs erkennen, insbesondere wenn seine Hände oder Arme im Bild enthalten sind. Das Motiv hat möglicherweise Ohren oder Augen, die in keinem Verhältnis zueinander stehen.
  • Probleme mit Brillen und Ohrringen: Betrachter sehen möglicherweise, dass dem Motiv fehlende oder nicht passende Ohrringe oder Brillen fehlen, die nicht passen.
  • Das Block Center hat einen Leitfaden zusammengestellt um Wählern bei der Navigation durch generative KI im politischen Wahlkampf zu helfen. Der Leitfaden ermutigt Wähler, Kandidaten Fragen zu ihrem Einsatz von KI zu stellen und ihren gewählten Vertretern Briefe zu schicken, in denen sie strengere KI-Vorschriften unterstützen.

    „Ein informierter Wähler sollte sich so viel Zeit nehmen, wie er braucht, um Vertrauen in die Informationen zu haben, die in seinen Entscheidungsprozess einfließen“, sagte Trzeciak.

    Gesetzgebungslandschaft

    Es gibt keine umfassende Bundesgesetzgebung zur Regulierung von Deepfakes, und mehrere Gesetzesentwürfe zum Schutz von Wahlen vor KI-Bedrohungen sind im Kongress ins Stocken geraten. Einige Staaten haben Gesetze erlassen, die die Erstellung oder Verwendung von Deepfakes für böswillige Zwecke verbieten, aber nicht alle beziehen sich ausdrücklich auf Wahleinmischung.

    Der Senat des Staates Pennsylvania hat einen Gesetzentwurf vorgelegt Das würde zivilrechtliche Sanktionen gegen diejenigen verhängen, die Wahlkampfwerbung verbreiten, die KI-generierte Nachahmungen politischer Kandidaten enthält, sofern die Gerichte eine böswillige Absicht nachweisen können. Über den Gesetzentwurf muss noch abgestimmt werden.

    Die bestehenden Gesetze reichten nicht aus, um den Einsatz von Deepfakes zu regulieren, sagte Scanlon. Er fügte jedoch hinzu, dass es aufgrund der unklaren Natur der Cyberkriminalität wahrscheinlich schwierig sein werde, eine Bundesverordnung durchzusetzen.

    „Die Durchsetzung wird wahrscheinlich darin bestehen, regelmäßig Exempel an Personen und Gruppen zu statuieren, um als Abschreckung zu wirken“, sagte Scanlon.

    Über die Umsetzung und Durchsetzung von Vorschriften hinaus müsse das Land laut Lightman die politische Polarisierung und das geschwächte gesellschaftliche Vertrauen in Institutionen angehen, die es ermöglichen, dass Fehlinformationen Feuer fangen.

    „Alles, was wir sehen, ist entweder Sarkasmus oder völlig falsche Propaganda. Und wir vertrauen einander nicht“, sagte er. „Wir müssen zu einem gesellschaftlichen Verständnis zurückfinden, wie das, womit wir es zu tun haben, das Vertrauen untergräbt. Wenn wir das verstehen, können wir vielleicht Schritte unternehmen, um das umzukehren.“

    Bereitgestellt von der Carnegie Mellon University

    ph-tech