Am 18. August veröffentlichte der ehemalige Präsident und aktuelle Präsidentschaftskandidat Donald Trump eine ungewöhnliche Unterstützungserklärung auf seinem Social-Media-Konto Truth Social. Inmitten einer Reihe von Fotos zeigte er ein Bild von Pop-Megastar Taylor Swift, die eine Uncle-Sam-Mütze trägt und erklärt: „Taylor möchte, dass Sie für Donald Trump stimmen.“
Das Problem: Es war nicht echt. Swift hatte keinen Kandidaten für die Präsidentschaftswahlen 2024 unterstützt – und tut das auch weiterhin nicht. Das Bild könnte von künstlicher Intelligenz generiert worden sein.
Casey Fiesler, außerordentliche Professorin im Fachbereich Informationswissenschaften an der CU Boulder, hält den Aufstieg der KI in der Politik für einen besorgniserregenden Trend. In diesem Monat testete beispielsweise die NPR-Reporterin Huo Jingnan Grok, eine neue KI-Plattform des Social-Media-Unternehmens X. Mithilfe der Plattform konnte sie überraschend realistische Überwachungskamerabilder von Menschen erstellen, die mitten in der Nacht Umschläge in Wahlurnen stopfen.
„Es ist nicht so, dass gefälschte Bilder vor diesem Jahr noch kein Thema waren“, sagte Fiesler. „Der Unterschied ist, dass es heute viel einfacher ist, sie zu erstellen. KI demokratisiert diese Art von schlechtem Schauspiel.“
Um den Wählern zu helfen, sich in dieser neuen und gefährlichen Wahlinformationslandschaft zurechtzufinden, sprach CU Boulder Today mit Fiesler und anderen Experten für KI und Medienkompetenz. Zu ihnen gehören Kai Larsen, Professor für Informationssysteme an der Leeds School of Business, und Toby Hopp, außerordentlicher Professor am Fachbereich für Werbung, Öffentlichkeitsarbeit und Mediendesign.
Diese Experten erläutern, wie Sie herausfinden können, ob ein online angezeigtes Foto echt ist – und wie Sie mit Freunden und Familienmitgliedern sprechen, die Fehlinformationen verbreiten.
Ja, KI ist wirklich so gut
In der Vergangenheit hinterließen KI-generierte Bilder oft „Artefakte“, wie Hände mit sechs Fingern, die aufmerksamen Betrachtern auffielen. Doch diese Art von Fehlern lässt sich bei Standbildern immer leichter beheben. Videoaufnahmen sind nicht weit davon entfernt, sagt Fiesler, die sich in einem Kurs, den sie diesen Herbst unterrichtet, mit der Ethik der KI beschäftigt und „Ethische und politische Dimensionen von Information und Technologie“ heißt.
„Irgendwann in Kürze werden Sie ein KI-generiertes Video einer Pressekonferenz des Leiters des CDC sehen können, und Sie werden völlig davon getäuscht“, sagte sie.
Gleichzeitig können die Algorithmen, die Social-Media-Plattformen wie TikTok und Instagram steuern, Benutzer in Abwärtsspiralen der Fehlinformation gefangen halten, sagte Larsen. Er ist Co-Autor des 2021 erschienenen Buches mit dem Titel „Automated Machine Learning for Business“.
„Algorithmen haben die Leute, zumindest in der Vergangenheit, immer wieder in diese Irrenanstalten getrieben“, sagte Larsen. „Wenn Sie bereit sind, eine einzige Falschinformation zu glauben, findet der Algorithmus heraus, dass Sie Verschwörungstheorien mögen. Warum also nicht noch mehr davon an Sie verfüttern?“
Die Technologie wird uns wahrscheinlich nicht retten
Eine Reihe von Unternehmen bieten mittlerweile Dienste an, die angeblich KI-generierte Inhalte, darunter gefälschte Bilder, erkennen können. Doch genau wie das menschliche Auge können diese Tools leicht ausgetrickst werden, sagt Larsen. Einige KI-Kritiker haben Technologieunternehmen auch dazu gedrängt, KI-Inhalte mit digitalen „Wasserzeichen“ zu versehen. Diese Wasserzeichen würden Fotos oder Texte kennzeichnen, die ursprünglich von einer KI-Plattform stammen.
„Das Problem mit Wasserzeichen ist, dass man sie oft ziemlich leicht loswerden kann“, sagte Larsen. „Oder man findet einfach ein anderes großes Sprachmodell, das sie nicht verwendet.“
„Google es“
Wenn es um KI-Bilder geht, kann eine kurze Online-Suche sehr hilfreich sein, sagt Fiesler.
Anfang August warf Trumps Wahlkampfteam Kamala Harris‘ Team vor, künstliche Intelligenz zu nutzen, um die Menschenmenge auf einem Foto einer ihrer Kundgebungen größer erscheinen zu lassen. Fiesler führte eine schnelle Google-Bildersuche nach dem Bild durch. Sie entdeckte, dass zahlreiche Nachrichtenagenturen über dasselbe Ereignis berichtet hatten und es Dutzende weiterer Fotos und Videos gab, die alle dieselbe große Menschenmenge zeigten.
„Googlen Sie es“, sagte Fiesler. „Finden Sie heraus: Schreiben Nachrichtenorganisationen über dasselbe Ereignis? Gibt es noch andere Fotos?“
Hopp, ein Wissenschaftler, der sich mit Fake News oder, wie er es lieber nennt, „Gegenmedien“ beschäftigt, warnt Social-Media-Nutzer vor Posts, die unsere schlimmsten Impulse auslösen wollen. 2016 veröffentlichten russische Troll-Farmen Tausende irreführende Anzeigen über die Präsidentschaftswahlen in den sozialen Medien. Viele davon versuchten, negative Emotionen anzusprechen und Amerikaner aus rechten und linken Lagern gegeneinander aufzuhetzen.
„Wir können eine Information auswerten und uns fragen: ‚Will mich das wütend machen? Will mich das aufregen?‘“, sagte Hopp. „Wenn das so ist, sollten wir uns fragen: ‚Besteht die Möglichkeit, dass das irreführend ist?‘“
Was ist mit Freunden und Familie?
Viele Menschen kennen dieses Problem: ein Freund oder Familienmitglied, das nicht aufhört, irreführende Social-Media-Beiträge zu teilen. Der Umgang mit einem solchen geliebten Menschen kann ein Minenfeld sein, sagt Hopp. Untersuchungen zeigen, dass man Menschen oft nicht umstimmen kann, wenn man sie einfach wegen ihrer falschen Überzeugungen (zum Beispiel, dass die Erde flach ist) anprangert. Es kann sogar dazu führen, dass sie noch einen Schritt weiter gehen.
Er und andere Forscher haben mit „Medienkompetenz-Interventionen“ experimentiert, also mit grundlegenden Informationen, wie man Fakten von Fiktion unterscheiden kann. Solche Interventionen können helfen, aber nicht so sehr, wie Hopp es sich erhofft.
„Ich denke, dass nüchterne, einfühlsame und einfühlsame Diskussionen mit den Menschen, die uns wichtig sind, über Medienkompetenz wichtig sein können, um Menschen dabei zu helfen, unterschiedliche Strategien anzuwenden, wenn sie auf Social-Media-Plattformen unterwegs sind“, sagte er. „Aber es gibt kein Patentrezept.“
Was können wir langfristig tun?
Kann irgendetwas dazu beitragen, die Verbreitung irreführender KI-Bilder im Internet zu verlangsamen?
Fiesler sieht einen dringenden Handlungsbedarf seitens der Bundesregierung, um die rasch wachsende KI-Industrie zu regulieren. Ein Ausgangspunkt könne der „Entwurf für eine KI-Bill of Rights“ sein, den das Büro für Wissenschafts- und Technologiepolitik des Weißen Hauses 2022 entworfen hat, sagte sie.
Dieser Entwurf, der noch nicht in Form eines Gesetzes verabschiedet wurde, enthält Empfehlungen wie: „Sie sollten wissen, dass ein automatisiertes System verwendet wird, und verstehen, wie und warum es zu Ergebnissen beiträgt, die sich auf Sie auswirken.“
Hopp seinerseits glaubt, dass ein Großteil der Verantwortung für die Bekämpfung politischer Desinformation bei einer anderen Gruppe liegt: den Politikern. Es ist an der Zeit, die Temperatur der politischen Diskussionen in den Vereinigten Staaten abzukühlen.
„Unsere politischen Führer müssen die Verwendung hyperparteiischer, spaltender Informationen verhindern“, sagte Hopp. „Die Akzeptanz dieser Art irreführender Informationen schafft Bedingungen, die ihre Verbreitung begünstigen.“