Viele befürchteten, dass die Wahl 2024 durch KI-generierte Desinformation beeinflusst und vielleicht sogar entschieden werden würde. Es waren zwar einige zu finden, aber es waren weitaus weniger als erwartet. Aber lassen Sie sich davon nicht täuschen: Die Desinformationsgefahr ist real – Sie sind einfach nicht das Ziel.
Das sagt zumindest Oren Etzioni, ein langjähriger KI-Forscher, dessen gemeinnützige Organisation TrueMedia hat den Finger auf den erzeugten Desinformationsimpuls.
„Es gibt, in Ermangelung eines besseren Wortes, eine Vielzahl von Deepfakes“, sagte er kürzlich in einem Interview mit Tech. „Jedes erfüllt seinen eigenen Zweck, und einige sind uns bewusster als andere. Lassen Sie es mich so ausdrücken: Für alles, worüber Sie tatsächlich hören, gibt es hunderte, die nicht auf Sie abzielen. Vielleicht tausend. Es ist wirklich nur die Spitze des Eisbergs, die es in die Mainstream-Presse schafft.“
Tatsache ist, dass die meisten Menschen, und die Amerikaner mehr als die meisten anderen, dazu neigen zu denken, dass das, was sie erleben, dasselbe ist wie das, was andere erleben. Das stimmt aus vielen Gründen nicht. Aber im Falle von Desinformationskampagnen ist Amerika tatsächlich ein schwieriges Ziel, da die Bevölkerung relativ gut informiert ist, sachliche Informationen leicht verfügbar sind und die Presse zumindest größtenteils vertrauenswürdig ist (trotz aller gegenteiligen Gerüchte).
Wir neigen dazu, uns Deepfakes als etwas wie ein Video vorzustellen, in dem Taylor Swift etwas tut oder sagt, was sie nie tun würde. Doch die wirklich gefährlichen Deepfakes stammen nicht von Prominenten oder Politikern, sondern von Situationen und Personen, die nicht so einfach identifiziert und bekämpft werden können.
„Das Größte, was die Leute nicht bekommen, ist die Vielfalt. Ich habe heute eines von iranischen Flugzeugen über Israel gesehen“, bemerkte er – etwas, das nicht passiert ist, aber von jemandem, der nicht vor Ort ist, nicht leicht widerlegt werden kann. „Sie sehen es nicht, weil Sie nicht auf dem Telegram-Kanal oder in bestimmten WhatsApp-Gruppen sind – aber Millionen sehen es.“
TrueMedia bietet einen kostenlosen Service (über Web und API) zur Identifizierung von Bildern, Videos, Audiodateien und anderen Elementen als gefälscht oder echt. Es ist keine einfache Aufgabe und kann nicht vollständig automatisiert werden, aber sie bauen langsam eine Grundlage aus fundiertem Material auf, das in den Prozess einfließt.
„Unsere Hauptaufgabe ist die Erkennung. Die akademischen Benchmarks [for evaluating fake media] sind längst umgepflügt“, erklärte Etzioni. „Wir trainieren anhand von Dingen, die von Menschen auf der ganzen Welt hochgeladen werden. Wir sehen, was die verschiedenen Anbieter dazu sagen, was unsere Modelle dazu sagen, und ziehen daraus eine Schlussfolgerung. Als Folgemaßnahme führt ein forensisches Team eine tiefergehende Untersuchung durch, die umfassender und langsamer ist, nicht bei allen Gegenständen, aber bei einem erheblichen Teil, sodass wir eine fundierte Wahrheit haben. Wir weisen keinen Wahrheitswert zu, es sei denn, wir sind uns ganz sicher; Wir können uns immer noch irren, aber wir sind wesentlich besser als jede andere Einzellösung.“
Die Hauptaufgabe besteht darin, das Problem auf drei Arten zu quantifizieren, wie Etzioni darlegte:
- Wie viel ist da draußen? „Wir wissen es nicht, dafür gibt es kein Google. Es gibt verschiedene Anzeichen dafür, dass es allgegenwärtig ist, aber es ist äußerst schwierig, vielleicht sogar unmöglich, es genau zu messen.“
- Wie viele Leute sehen es? „Das ist einfacher, denn wenn Elon Musk etwas teilt, wissen Sie: ‚10 Millionen Menschen haben es gesehen‘.“ Die Anzahl der Augäpfel liegt also leicht in den Hunderten von Millionen. Ich sehe jede Woche Artikel, die millionenfach angesehen wurden.“
- Wie groß war die Wirkung? „Das ist vielleicht das Wichtigste. Wie viele Wähler sind wegen der gefälschten Biden-Anrufe nicht zur Wahl gegangen? Wir sind einfach nicht darauf eingestellt, das zu messen. Der Slowakische [a disinfo campaign targeting a presidential candidate there in February] Es war in letzter Minute, und dann hat er verloren. Das könnte durchaus den Ausschlag für die Wahl gegeben haben.“
Bei all diesen Projekten handele es sich um laufende Arbeiten, einige seien gerade erst am Anfang, betonte er. Aber man muss irgendwo anfangen.
„Lassen Sie mich eine mutige Vorhersage machen: In den nächsten vier Jahren werden wir viel besser darin werden, dies zu messen“, sagte er. „Weil wir müssen. Im Moment versuchen wir nur, damit klarzukommen.“
Einige der industriellen und technologischen Versuche, generierte Medien offensichtlicher zu machen, wie etwa das Anbringen von Wasserzeichen in Bildern und Texten, seien harmlos und vielleicht nützlich, würden das Problem jedoch nicht einmal ansatzweise lösen, sagte er.
„Ich würde es so ausdrücken: Bringen Sie kein Wasserzeichen zu einer Schießerei mit.“ Diese freiwilligen Standards sind in kollaborativen Ökosystemen hilfreich, in denen jeder einen Grund hat, sie zu nutzen, sie bieten jedoch wenig Schutz vor böswilligen Akteuren, die einer Entdeckung entgehen wollen.
Das klingt alles ziemlich düster, und das ist es auch, aber die folgenreichste Wahl in der jüngeren Geschichte fand einfach ohne große KI-Spielereien statt. Das liegt nicht daran, dass generative Desinformation nicht alltäglich ist, sondern daran, dass ihre Anbieter es nicht für notwendig hielten, daran teilzunehmen. Ob Ihnen das mehr oder weniger Angst macht als die Alternative, liegt ganz bei Ihnen.