Die EU verschärft vor den Wahlen die Prüfung wichtiger Plattformen auf GenAI-Risiken

Die Europäische Kommission hat eine Reihe formeller Auskunftsersuchen (RFI) an Google, Meta, Microsoft, Snap, TikTok und X darüber gesendet, wie sie mit Risiken im Zusammenhang mit der Nutzung generativer KI umgehen.

Die Anfragen, die sich auf Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube und Die acht Plattformen werden gemäß der Verordnung als sehr große Online-Plattformen (VLOPs) bezeichnet. Das bedeutet, dass sie neben der Einhaltung des übrigen Regelwerks auch systemische Risiken bewerten und mindern müssen.

In einem Pressemitteilung Am Donnerstag teilte die Kommission mit, dass sie sie auffordert, mehr Informationen über ihre jeweiligen Maßnahmen zur Risikominderung im Zusammenhang mit generativer KI in ihren Diensten bereitzustellen – auch im Zusammenhang mit sogenannten „Halluzinationen“, bei denen KI-Technologien falsche Informationen generieren; die virale Verbreitung von Deepfakes; und die automatisierte Manipulation von Diensten, die Wähler irreführen kann.

„Die Kommission fordert außerdem Informationen und interne Dokumente zu den Risikobewertungen und Minderungsmaßnahmen im Zusammenhang mit den Auswirkungen generativer KI auf Wahlprozesse, die Verbreitung illegaler Inhalte, den Schutz der Grundrechte, geschlechtsspezifische Gewalt, den Schutz von Minderjährigen und die psychische Gesundheit.“ Sein“, fügte die Kommission hinzu und betonte, dass sich die Fragen „sowohl auf die Verbreitung als auch auf die Erstellung generativer KI-Inhalte“ beziehen.

In einem Briefing mit Journalisten sagte die EU außerdem, sie plane eine Reihe von Stresstests, die nach Ostern stattfinden sollen. Diese werden die Bereitschaft der Plattformen testen, mit generativen KI-Risiken wie der Möglichkeit einer Flut politischer Deepfakes vor den Wahlen zum Europäischen Parlament im Juni umzugehen.

„Wir möchten die Plattformen dazu drängen, uns mitzuteilen, was sie tun, um bestmöglich vorbereitet zu sein … auf alle Vorfälle, die wir möglicherweise entdecken können und auf die wir im Vorfeld der Wahlen reagieren müssen.“ sagte ein hochrangiger Beamter der Kommission, der anonym bleiben wollte.

Die EU, die die Einhaltung dieser Big-Tech-spezifischen DSA-Regeln durch VLOPs überwacht, hat die Wahlsicherheit als einen der vorrangigen Bereiche für die Durchsetzung benannt. Es hat kürzlich Beratungen zu Wahlsicherheitsregeln für VLOPs durchgeführt und arbeitet an der Erstellung formeller Leitlinien.

Die heutigen Anfragen zielen nach Angaben der Kommission teilweise darauf ab, diese Leitlinien zu unterstützen. Obwohl den Plattformen bis zum 3. April Zeit gegeben wurde, Informationen zum Wahlschutz bereitzustellen, wird dies als „dringende“ Anfrage bezeichnet. Die EU sagte jedoch, sie hoffe, die Wahlsicherheitsrichtlinien schon früher fertigzustellen – bis zum 27. März.

Die Kommission stellte fest, dass die Kosten für die Produktion synthetischer Inhalte dramatisch sinken – was das Risiko erhöht, dass bei Wahlen irreführende Deepfakes verbreitet werden. Aus diesem Grund erregt es Aufmerksamkeit auf großen Plattformen, die in der Lage sind, politische Deepfakes weithin zu verbreiten.

Eine Tech-Branche Übereinstimmung Der Versuch, den betrügerischen Einsatz der KI bei Wahlen zu bekämpfen, der im Rahmen der Münchner Sicherheitskonferenz letzten Monat mit Unterstützung einiger derselben Plattformen, an die die Kommission jetzt RFIs sendet, durchgeführt wurde, geht aus Sicht der EU nicht weit genug.

Ein Beamter der Kommission sagte, ihre bevorstehenden Richtlinien zur Wahlsicherheit würden „viel weitergehen“ und verwies auf eine dreifache Reihe von Schutzmaßnahmen, die sie nutzen will: Beginnend mit den „klaren Sorgfaltspflichtregeln“ der DSA, die ihr die Befugnis geben, gezielt auf bestimmte „Risikosituationen“ zu reagieren. ; kombiniert mit mehr als fünf Jahren Erfahrung in der Zusammenarbeit mit Plattformen im Rahmen des (nicht rechtsverbindlichen) Verhaltenskodex gegen Desinformation, der nach dem Willen der EU zu einem Verhaltenskodex im Rahmen des DSA werden soll; und – am Horizont – Transparenzkennzeichnungs-/KI-Modellkennzeichnungsregeln gemäß dem kommenden KI-Gesetz.

Ziel der EU sei es, „ein Ökosystem von Durchsetzungsstrukturen“ aufzubauen, das im Vorfeld von Wahlen genutzt werden könne, fügte der Beamte hinzu.

Die RFIs der Kommission zielen heute auch darauf ab, ein breiteres Spektrum generativer KI-Risiken als Wählermanipulation anzugehen – etwa Schäden im Zusammenhang mit Deepfake-Pornos oder anderen Arten der Generierung bösartiger synthetischer Inhalte, unabhängig davon, ob es sich bei den produzierten Inhalten um Bilder/Videos oder Audio handelt. Diese Anfragen spiegeln andere vorrangige Bereiche für die Durchsetzung des DSA der EU in Bezug auf VLOPs wider, darunter Risiken im Zusammenhang mit illegalen Inhalten (z. B. Hassreden) und Kinderschutz.

Den Plattformen wurde bis zum 24. April Zeit gegeben, Antworten auf diese anderen generativen KI-RFIs zu geben

Kleinere Plattformen, auf denen irreführende, böswillige oder anderweitig schädliche Deepfakes verbreitet werden können, und kleinere Hersteller von KI-Tools, die die Generierung synthetischer Medien zu geringeren Kosten ermöglichen können, stehen ebenfalls auf dem Risikominderungsradar der EU.

Solche Plattformen und Tools fallen nicht unter die ausdrückliche DSA-Aufsicht der Kommission über VLOPs, da sie nicht ausgewiesen sind. Ihre Strategie zur Ausweitung der regulatorischen Wirkung besteht jedoch darin, indirekt Druck auszuüben, über größere Plattformen (die in diesem Zusammenhang als Verstärker und/oder Vertriebskanäle fungieren können); und über Selbstregulierungsmechanismen, wie den oben genannten Desinformationskodex; und der KI-Pakt, der in Kürze in Kraft treten soll, sobald das (harte) KI-Gesetz verabschiedet ist (voraussichtlich innerhalb weniger Monate).

tch-1-tech