Es wird geschätzt, dass in diesem Wahlzyklus 12 Milliarden US-Dollar für politische Werbung ausgegeben werden – 30 % mehr als im Jahr 2020. Das schiere Volumen der Werbung ist bemerkenswert, und es besteht ein enormes Potenzial, diese politischen Informationen zu nutzen, um zur Demokratie beizutragen: um mehr potenzielle Wähler zu erreichen und genaue Informationen liefern.
Es besteht auch mehr denn je das Potenzial generativer künstlicher Intelligenz, Kandidaten und Richtlinien falsch darzustellen, was zu Verwirrung in der Wahlkabine führt. Die Redakteurin des News Bureau, Lois Yoksoulian, sprach mit der Werbeprofessorin und Abteilungsleiterin Michelle Nelson über das Thema.
Wie wird KI in politischen Anzeigen eingesetzt und was sind einige aktuelle Beispiele für KI-generierte politische Anzeigen?
Nachdem Präsident Joe Biden sein Wiederwahlangebot bekannt gegeben hatte, veröffentlichte das Republikanische Nationalkomitee eine KI-generierte politische Werbung, die eine dystopische Welt darstellte, falls Biden wiedergewählt werden sollte. Die Videoanzeige enthält eine Reihe von „Was wäre, wenn“-Fragen (z. B. „Was wäre, wenn die Kriminalität zunimmt?“) mit KI-generierten Bildern. Dies ist eine klassische Angstappell-negative Angriffsanzeige.
Emotionale Anzeigen erreichen uns und wir erinnern uns an sie – wie die berühmte politische Anzeige „Daisy“, die während des Wahlzyklus von 1964 verwendet wurde, oder die Anzeige von Willie Horton, die 1988 verwendet wurde. Aber sie können auch Gegenreaktionen hervorrufen, weil sie zu negativ und zu manipulativ sind, insbesondere weil sie es sind mit KI.
Manche sagen, die Joe Biden RNC-Werbung sei die erste KI-generierte Werbung, aber das ist schwer zu beweisen. In der oberen linken Ecke der Anzeige sehen Sie jedoch einen Hinweis in kleiner Schrift: „Vollständig mit KI-Bildern erstellt.“ In der Videobeschreibung auf der YouTube-Seite der GOP heißt es: „Ein KI-generierter Blick in die mögliche Zukunft des Landes, wenn Joe Biden 2024 wiedergewählt wird.“ Sie verheimlichen also nicht den Einsatz von KI. Es gibt auch eine Parodie-Anzeige, die in der Daily Show lief und einen KI-generierten Voice-Over für Biden verwendet. Heutzutage ist es ziemlich einfach, KI-Tools zu verwenden, um Inhalte zu erstellen und sie ziemlich real aussehen zu lassen.
Müssen die Unternehmen, die hinter solchen Anzeigen stehen, offenlegen, dass KI eingesetzt wurde?
Die Federal Election Commission, die Regierungsbehörde, die in den USA die politische Kommunikation, einschließlich Werbung, reguliert, hat auf ihrer Sitzung mit dem Titel 2023: REG 2023-02 Artificial Intelligence in öffentliche Stellungnahmen zur Änderung einer Verordnung im Zusammenhang mit der Verwendung absichtlich irreführender KI in Wahlkampfwerbung eingeholt Kampagnenanzeigen. Sie haben hier noch keine Entscheidung getroffen. Allerdings haben Staaten wie Kalifornien, Texas, Michigan, Washington und Minnesota neue Landesgesetze erlassen, nach denen alle gefälschten KI-Bilder, -Videos oder -Audios gekennzeichnet werden müssen. Ein ähnliches Gesetz wird hier in Illinois diskutiert. Es ist nicht klar, in welcher Beziehung diese Landesgesetze zur Verfassung stehen.
Einige Technologieunternehmen haben damit begonnen, Offenlegungen zu verlangen. Beispielsweise gab Google an, dass alle KI-generierten politischen Anzeigen, die auf YouTube oder anderen Google-Plattformen gezeigt werden, „die Personen oder Ereignisse verändern“, eine deutliche Offenlegung aufweisen müssen. In einigen Regionen gibt es auch einen Verifizierungsprozess für politische Anzeigen.
Microsoft hat über seine Coalition for Content Provenance and Authenticity seinen „Content Credentials as a Service“ gestartet, der wie ein Wasserzeichen-Tool ist – es ermöglicht Benutzern, die Medien digital zu signieren und zu authentifizieren – egal, ob es sich um ein Bild oder ein Video handelt. Die Idee besteht darin, dass das Wasserzeichen als Metadaten dient, sodass Benutzer den Verlauf des Inhalts sehen können. Zum Beispiel „wie, wann und von wem der Inhalt erstellt oder bearbeitet wurde“, ob von einer Person oder einer KI. Diese Informationen bleiben beim Inhalt, sodass jeder den Ursprung sehen kann.
Inwieweit KI-generierte politische Inhalte jetzt mit einem Wasserzeichen versehen oder offengelegt werden, weiß ich nicht. Es scheint derzeit schwierig, alle diese Bilder zu überwachen.
Welchen potenziellen Schaden kann der Einsatz von KI in politischen Anzeigen verursachen?
Die Sorge vor Schäden bezieht sich auf die Möglichkeit von Deepfakes und Desinformation. Andere können mithilfe von KI-Stimmen oder Bildern ohne Genehmigung etwas nachbilden, um Geschichten und Inhalte zu erstellen, die absolut unwahr sind.
In der Vergangenheit verfügten wir über Tools und Technologien wie Photoshop, um vorhandene Bilder zu bearbeiten. Erinnern Sie sich an die Anzeigen aus dem Jahr 2004 mit veränderten Fotos, auf denen John Kerry, der demokratische Präsidentschaftskandidat, und Jane Fonda bei einer Kundgebung gegen den Vietnamkrieg zu sehen sind? Werbung wird regelmäßig verschönert oder verändert: Die Farben oder die Beleuchtung werden geändert, um Menschen unheilvoll oder jugendlicher aussehen zu lassen. Aber das hier ist anders. Das ist ein ganz neues Level. Jeder kann KI-Nachrichten mit kostenlosen Tools wie ChatGPT von Open AI oder Bard von Google erstellen. Dies kann bei verantwortungsvollem Umgang gut oder schädlich sein.
Unsere Forschung zeigt, dass viele Menschen nicht wissen, dass der Erste Verfassungszusatz politische Werbung in den USA schützt. Für politische Werbung gelten nicht die gleichen Standards wie für kommerzielle Werbung, beispielsweise für einen Cheeseburger. Die „Truth-in-Advertising“-Gesetze der Federal Trade Commission gelten nicht für politische Anzeigen. Das bedeutet, dass politische Werbung rechtlich gesehen irreführend oder lügend sein kann. Natürlich gibt es Verleumdungsgesetze, aber sie werden in diesem Bereich selten angewendet.
Über diesen regulatorischen Unterschied zwischen kommerzieller und politischer Werbung hinaus besteht die Idee darin, dass wir wollen, dass frei fließende politische Informationen zu einem Dialog beitragen, der unsere Demokratie stärken kann. Zu viel Regulierung kann eine abschreckende Wirkung auf die politische Rede haben. Doch das heutige Potenzial der KI, zu lügen und zu täuschen und diese Botschaften auf personalisierte Weise und im großen Maßstab zu verbreiten, stellt möglicherweise eine Herausforderung für unser Denken über Regulierung und politische Werbung dar.
Haben Sie einen Rat, wie Verbraucher den Einsatz generativer KI in politischen Anzeigen erkennen können?
Sie können es nicht. Sie können nach Unregelmäßigkeiten wie der Anzahl der Beine der Katze suchen. Aber es wird immer schwieriger zu sagen, ob KI ein Bild oder Video erstellt. Ob es Taylor Swift, ein Bild von Trump im Gefängnis oder ein lustiges Meme ist, können wir nicht immer sagen, insbesondere wenn wir durch unsere Social-Media-Feeds scrollen. Das Beste, was wir tun können, ist zu hoffen, dass die Technologiebranche Systeme entwickelt, die den Ursprung des Inhalts nachverfolgen können, damit wir sehen können, wer das Bild wann und wie erstellt hat. Wenn diese Technologie eingebaut ist, ist es schwieriger, die Leute zu täuschen. Wir könnten auch Offenlegungspflichten für Technologieunternehmen fördern.
Aber im Zeitalter dieser Art von Medien und im Wahljahr müssen wir uns auf die Grundlagen der Medienkompetenz konzentrieren – auf die Suche nach verlässlichen Informationsquellen, die Beobachtung der politischen Debatten und den Versuch, uns eine eigene fundierte Meinung zu bilden.