Die Menschen sind sich der Desinformation stärker bewusst als früher. Nach Einer aktuellen Umfrage zufolge überprüfen neun von zehn amerikanischen Erwachsenen ihre Nachrichten auf Fakten, und 96 % wollen die Verbreitung falscher Informationen begrenzen.
Mit dem Aufkommen generativer KI-Tools wird es jedoch schwieriger – nicht einfacher –, die Welle der Desinformation einzudämmen.
Das war die hochrangige Erkenntnis des Desinformations- und KI-Panels auf der AI Stage bei TC Disrupt 2023, an dem Sarah Brandt, EVP für Partnerschaften bei NewsGuard, und Andy Parsons, Senior Director der Content Authenticity Initiative (CAI) bei, teilnahmen Adobe. Die Diskussionsteilnehmer sprachen über die Bedrohung durch KI-generierte Desinformation und mögliche Lösungen im bevorstehenden Wahljahr.
Parsons formulierte die Risiken recht deutlich.
„Ohne eine zentrale Grundlage und objektive Wahrheit, die wir offen gesagt – ohne Übertreibung – teilen können, steht die Demokratie auf dem Spiel“, sagte er. „Es steht auf dem Spiel, objektive Gespräche mit anderen Menschen über die gemeinsame Wahrheit führen zu können.“
Sowohl Brandt als auch Parsons erkannten an, dass webbasierte Desinformation, ob KI-gestützt oder nicht, kein neues Phänomen ist. Parsons verwies auf den Virus von 2019 Clip der ehemaligen Sprecherin des Repräsentantenhauses, Nancy Pelosi (D-CA), die durch grobe Bearbeitung den Eindruck erweckte, als würde Pelosi undeutlich und unbeholfen sprechen.
Aber Brandt wies auch darauf hin, dass es dank KI, insbesondere generativer KI, viel billiger und einfacher wird, Desinformation in großem Umfang zu generieren und zu verbreiten.
Sie zitierte Statistiken aus ihrer Arbeit bei NewsGuard, das ein Bewertungssystem für Nachrichten- und Informationswebsites entwickelt und Dienste wie die Verfolgung von Fehlinformationen und Markensicherheit für Werbetreibende bereitstellt. Im Mai NewsGuard identifiziert 49 Nachrichten- und Informationsseiten, die scheinbar fast ausschließlich mit KI-Tools geschrieben wurden. Seitdem hat das Unternehmen Hunderte weitere unzuverlässige, KI-generierte Websites entdeckt.
„Es ist wirklich ein Volumenspiel“, sagte Parsons. „Sie pumpen einfach Hunderte – in manchen Fällen Tausende – oder Artikel pro Tag heraus, und es ist ein Spiel mit Werbeeinnahmen. In manchen Fällen geht es ihnen lediglich darum, eine Menge Content zu erhalten – es in Suchmaschinen zu schaffen und programmatische Werbeeinnahmen zu erzielen. Und in einigen Fällen sehen wir, dass sie Fehlinformationen und Desinformationen verbreiten.“
Und die Eintrittsbarriere sinkt.
Ein weiterer NewsGuard StudieIn der Ende März veröffentlichten Studie wurde festgestellt, dass GPT-4, das Flaggschiff-Modell zur Textgenerierung von OpenAI, bei entsprechender Aufforderung eher Fehlinformationen verbreitet als sein Vorgänger GPT-3.5. Der Test von NewsGuard ergab, dass GPT-4 falsche Narrative besser hervorheben kann überzeugende Art und Weise in einer Reihe von Formaten, darunter „Nachrichtenartikel, Twitter-Threads und Fernsehskripte, die russische und chinesische staatliche Medien, Händler von Gesundheitsschwindeln und bekannte Verschwörungstheoretiker nachahmen“.
Was ist also die Antwort auf dieses Dilemma? Es ist nicht sofort klar.
Parsons wies darauf hin, dass Adobe, das eine Familie generativer KI-Produkte namens Firefly betreibt, Schutzmaßnahmen wie Filter implementiert, um Missbrauch zu verhindern. Und die Content Authenticity Initiative, die Adobe 2019 gemeinsam mit der New York Times und Twitter gegründet hat, fördert einen Industriestandard für Herkunftsmetadaten.
Die Verwendung des CAI-Standards ist jedoch völlig freiwillig. Und nur weil Adobe Sicherheitsmaßnahmen implementiert, heißt das nicht, dass andere diesem Beispiel folgen – oder dass diese Sicherheitsmaßnahmen nicht umgangen werden können oder werden.
Die Diskussionsteilnehmer nannten Wasserzeichen eine weitere nützliche Maßnahme, wenn auch kein Allheilmittel.
Eine Reihe von Organisationen erforschen Wasserzeichentechniken für generative Medien, darunter DeepMind, das kürzlich einen Standard, SynthID, vorgeschlagen hat, um KI-generierte Bilder auf eine Weise zu markieren, die für das menschliche Auge nicht wahrnehmbar ist, aber von einem speziellen Detektor leicht erkannt werden kann. Das 2020 gegründete französische Startup Imatag bietet ein Wasserzeichen-Tool an, von dem es behauptet, dass es nicht durch Größenänderung, Zuschneiden, Bearbeiten oder Komprimieren von Bildern beeinträchtigt wird, ähnlich wie SynthID, während ein anderes Unternehmen, Steg.AI, ein KI-Modell verwendet, um überlebende Wasserzeichen anzubringen Größenänderung und andere Bearbeitungen.
Brandt verwies tatsächlich auf einige der heute auf dem Markt befindlichen Wasserzeichenbemühungen und -technologien und äußerte sich optimistisch, dass „wirtschaftliche Anreize“ die Unternehmen, die generative KI-Tools entwickeln, dazu ermutigen werden, sorgfältiger darüber nachzudenken, wie sie diese Tools einsetzen – und wie sie entwerfen um einen Missbrauch zu verhindern.
„Bei Unternehmen, die generative KI betreiben, müssen ihre Inhalte vertrauenswürdig sein – andernfalls werden die Leute sie nicht nutzen“, sagte sie. „Wenn es weiterhin halluziniert, wenn es weiterhin Fehlinformationen verbreitet, wenn es weiterhin keine Quellen zitiert – das wird weniger zuverlässig sein als jedes Unternehmen, das sich mit generativer KI beschäftigt, um sicherzustellen, dass seine Inhalte zuverlässig sind.“
Ich bin mir nicht so sicher – vor allem, da hochleistungsfähige, sicherheitsfreie Open-Source-Modelle für generative KI allgemein verfügbar werden. Wie bei allen Dingen, denke ich, wird die Zeit es zeigen.