Die EU veröffentlicht Leitlinien zur Wahlsicherheit für Social-Media-Giganten und andere im Rahmen des DSA

Die Europäische Union hat am Dienstag den Entwurf von Wahlsicherheitsrichtlinien veröffentlicht, der sich an rund zwei Dutzend (größere) Plattformen mit mehr als 45 Millionen aktiven monatlichen regionalen Nutzern richtet, die unter dem Digital Services Act (DSA) reguliert sind und daher gesetzlich verpflichtet sind, systemische Risiken zu mindern wie politische Deepfakes unter Wahrung von Grundrechten wie Meinungsfreiheit und Privatsphäre.

Zu den in den Geltungsbereich fallenden Plattformen gehören Facebook, Google Search, Instagram, LinkedIn, TikTok, YouTube und X.

Die Kommission hat Wahlen als einen von wenigen vorrangigen Bereichen für die Durchsetzung des DSA auf sogenannten sehr großen Online-Plattformen (VLOPs) und sehr großen Online-Suchmaschinen (VLOSEs) benannt. Diese Untergruppe von DSA-regulierten Unternehmen ist verpflichtet, systemische Risiken zu erkennen und zu mindern, wie z. B. Informationsmanipulation, die auf demokratische Prozesse in der Region abzielt, und zusätzlich die vollständige Online-Governance-Regelung einzuhalten.

Gemäß den Leitlinien der EU zur Wahlsicherheit erwartet die Union, dass regulierte Technologiegiganten ihre Anstrengungen zum Schutz demokratischer Stimmen verstärken und leistungsfähige Ressourcen für die Moderation von Inhalten in den verschiedenen Amtssprachen einsetzen, die in der Union gesprochen werden – um sicherzustellen, dass ihnen genügend Personal zur Verfügung steht, um effektiv auf auftretende Risiken reagieren zu können aus dem Informationsfluss auf ihren Plattformen und reagieren auf Berichte von Faktenprüfern Dritter – mit dem Risiko hoher Geldstrafen, wenn sie den Ball fallen lassen.

Dies erfordert, dass die Plattformen einen präzisen Balanceakt bei der Moderation politischer Inhalte hinlegen und dabei nicht auf ihre Fähigkeit verzichten müssen, beispielsweise zwischen politischer Satire, die als geschützte freie Meinungsäußerung online bleiben sollte, und böswilliger politischer Desinformation, deren Urheber hoffen könnten, zu unterscheiden um Wähler zu beeinflussen und Wahlen zu verfälschen.

Im letzteren Fall fällt der Inhalt unter die DSA-Kategorisierung eines systemischen Risikos, das von den Plattformen schnell erkannt und gemindert werden soll. Der EU-Standard verlangt hier, dass sie „angemessene, verhältnismäßige und wirksame“ Maßnahmen zur Risikominderung im Zusammenhang mit Wahlprozessen ergreifen und andere relevante Bestimmungen der weitreichenden Regulierung von Inhaltsmoderation und Governance respektieren.

Die Kommission hat zügig an den Wahlrichtlinien gearbeitet und erst letzten Monat eine Konsultation zu einem Entwurf eingeleitet. Das Gefühl der Dringlichkeit in Brüssel ergibt sich aus den bevorstehenden Wahlen zum Europäischen Parlament im Juni. Beamte haben angekündigt, dass sie die Bereitschaft der Plattformen im nächsten Monat einem Stresstest unterziehen werden. Die EU scheint also nicht bereit zu sein, die Einhaltung der Plattformen durch Plattformen dem Zufall zu überlassen, selbst wenn es ein strenges Gesetz gibt, das bedeutet, dass Technologiegiganten hohe Geldstrafen riskieren, wenn sie die Erwartungen der Kommission dieses Mal nicht erfüllen.

Benutzersteuerelemente für algorithmische Feeds

Zu den zentralen Wahlrichtlinien der EU, die sich an Mainstream-Social-Media-Unternehmen und andere große Plattformen richten, gehört, dass sie ihren Nutzern eine sinnvolle Wahl statt algorithmischer und KI-gestützter Empfehlungssysteme bieten sollten – damit sie eine gewisse Kontrolle über die Art der Inhalte ausüben können, die sie sehen .

„Empfehlungssysteme können eine wichtige Rolle bei der Gestaltung der Informationslandschaft und der öffentlichen Meinung spielen“, heißt es in den Leitlinien. „Um das Risiko zu mindern, das solche Systeme in Bezug auf Wahlprozesse darstellen können, [platform] Anbieter … sollten Folgendes in Betracht ziehen: (i.) Sicherstellen, dass Empfehlungssysteme so konzipiert und angepasst werden, dass Benutzer sinnvolle Auswahlmöglichkeiten und Kontrolle über ihre Feeds haben, unter gebührender Berücksichtigung der Medienvielfalt und des Pluralismus.“

Empfehlungssysteme von Plattformen sollten auch über Maßnahmen zur Herabstufung von Desinformation verfügen, die auf Wahlen abzielt, und zwar auf der Grundlage dessen, was in den Leitlinien als „klare und transparente Methoden“ bezeichnet wird, wie z. B. irreführende Inhalte, die nachweislich als falsch eingestuft wurden; und/oder Beiträge von Konten, bei denen wiederholt festgestellt wurde, dass sie Desinformation verbreiten.

Plattformen müssen außerdem Abhilfemaßnahmen ergreifen, um das Risiko zu vermeiden, dass ihre Empfehlungssysteme generative KI-basierte Desinformation (auch politische Deepfakes genannt) verbreiten. Sie sollten ihre Empfehlungsmaschinen auch proaktiv auf Risiken im Zusammenhang mit Wahlprozessen prüfen und Aktualisierungen einführen, um Risiken zu verringern. Die EU empfiehlt außerdem Transparenz in Bezug auf das Design und die Funktionsweise von KI-gesteuerten Feeds; und fordert die Plattformen nachdrücklich auf, sich an kontradiktorischen Tests, Red-Teaming usw. zu beteiligen, um ihre Fähigkeit zu verbessern, Risiken zu erkennen und zu unterdrücken.

Auch in Bezug auf GenAI drängt die EU in ihrem Rat auf die Wasserzeichenierung synthetischer Medien – wobei sie hier auf die Grenzen der technischen Machbarkeit hinweist.

Empfohlene Abhilfemaßnahmen und Best Practices für größere Plattformen im 25 Seiten Leitfadenentwurf In den heute veröffentlichten Berichten wird außerdem erwartet, dass Plattformen interne Ressourcen bereitstellen, um sich auf bestimmte Wahlbedrohungen zu konzentrieren, beispielsweise im Zusammenhang mit bevorstehenden Wahlereignissen, und Prozesse für den Austausch relevanter Informationen und Risikoanalysen einführen.

Die Ressourcenbeschaffung sollte über lokales Fachwissen verfügen

Die Leitlinien betonen die Notwendigkeit einer Analyse „lokaler kontextspezifischer Risiken“ zusätzlich zur Sammlung mitgliedstaatsspezifischer/nationaler und regionaler Informationen, um die Arbeit der für die Gestaltung und Kalibrierung von Risikominderungsmaßnahmen verantwortlichen Stellen zu unterstützen. Und für „ausreichende Ressourcen für die Moderation von Inhalten“, mit lokalen Sprachkenntnissen und Kenntnissen der nationalen und/oder regionalen Kontexte und Besonderheiten – ein langjähriger Kritikpunkt der EU, wenn es um die Bemühungen von Plattformen geht, Desinformationsrisiken zu verringern.

Eine weitere Empfehlung besteht darin, die internen Prozesse und Ressourcen rund um jedes Wahlereignis zu stärken, indem sie vor der Wahlperiode „ein dediziertes, klar identifizierbares internes Team“ einrichten – mit einer Ressourcenausstattung, die im Verhältnis zu den für die jeweilige Wahl identifizierten Risiken steht.

Der EU-Leitfaden empfiehlt außerdem ausdrücklich die Einstellung von Personal mit lokaler Fachkenntnis, einschließlich Sprachkenntnissen. Plattformen hingegen haben oft versucht, eine zentralisierte Ressource umzuwidmen – ohne immer auf dediziertes lokales Fachwissen zurückzugreifen.

„Das Team sollte alle relevanten Fachkenntnisse abdecken, auch in Bereichen wie Inhaltsmoderation, Faktenprüfung, Bedrohungsunterbrechung, hybride Bedrohungen, Cybersicherheit, Desinformation und FIMI [foreign information manipulation and interference]Grundrechte und Öffentlichkeitsbeteiligung und kooperieren mit relevanten externen Experten, beispielsweise mit den Hubs des European Digital Media Observatory (EDMO) und unabhängigen Faktencheck-Organisationen“, schreibt die EU weiter.

Die Leitlinien ermöglichen es Plattformen, möglicherweise die Ressourcen für bestimmte Wahlereignisse aufzustocken und Teams zu demobilisieren, sobald eine Abstimmung beendet ist.

Es wird darauf hingewiesen, dass die Zeiträume, in denen möglicherweise zusätzliche Maßnahmen zur Risikominderung erforderlich sind, je nach Risikoniveau und den spezifischen Vorschriften der EU-Mitgliedstaaten im Zusammenhang mit Wahlen (die variieren können) variieren können. Die Kommission empfiehlt jedoch, dass Plattformen mindestens ein bis sechs Monate vor einer Wahlperiode Abhilfemaßnahmen einführen und in Betrieb nehmen und diese mindestens einen Monat nach den Wahlen fortführen.

Es überrascht nicht, dass die größte Intensität der Abhilfemaßnahmen in der Zeit vor dem Datum der Wahlen erwartet wird, um Risiken wie Desinformation, die auf Wahlverfahren abzielt, zu bekämpfen.

Hassrede im Rahmen

Die EU empfiehlt Plattformen im Allgemeinen, sich auf andere bestehende Leitlinien zu stützen, darunter den Verhaltenskodex zur Desinformation und den Verhaltenskodex zur Bekämpfung von Hassrede, um bewährte Verfahren für Eindämmungsmaßnahmen zu ermitteln. Es sieht jedoch vor, dass sie sicherstellen müssen, dass Benutzer Zugang zu offiziellen Informationen über Wahlprozesse erhalten, wie z. B. Banner, Links und Pop-ups, die Benutzer zu maßgeblichen Informationsquellen für Wahlen leiten sollen.

„Bei der Minderung systemischer Risiken für die Wahlintegrität empfiehlt die Kommission, auch die Auswirkungen von Maßnahmen zur Bekämpfung illegaler Inhalte wie öffentliche Aufstachelung zu Gewalt und Hass gebührend zu berücksichtigen, soweit solche illegalen Inhalte die Stimmen in der Demokratie behindern oder zum Schweigen bringen können.“ Debatte, insbesondere diejenigen, die gefährdete Gruppen oder Minderheiten vertreten“, schreibt die Kommission.

„Zum Beispiel können Formen von Rassismus oder geschlechtsspezifischer Desinformation und geschlechtsspezifischer Gewalt im Internet, auch im Zusammenhang mit gewalttätiger extremistischer oder terroristischer Ideologie oder FIMI, die auf die LGBTIQ+-Gemeinschaft abzielen, den offenen, demokratischen Dialog und die Debatte untergraben und die soziale Spaltung und Polarisierung weiter verstärken.“ In dieser Hinsicht kann der Verhaltenskodex zur Bekämpfung illegaler Hassreden im Internet als Inspiration für die Überlegung geeigneter Maßnahmen dienen.“

Sie empfiehlt außerdem die Durchführung von Kampagnen zur Medienkompetenz und den Einsatz von Maßnahmen, die darauf abzielen, den Nutzern kontextbezogenere Informationen bereitzustellen – wie z. B. Labels zur Faktenprüfung; Aufforderungen und Anstöße; klare Angaben zu offiziellen Konten; klare und nicht irreführende Kennzeichnung von Konten, die von Mitgliedstaaten, Drittländern und von Drittländern kontrollierten oder finanzierten Einrichtungen geführt werden; Tools und Informationen, die Benutzern helfen, die Vertrauenswürdigkeit von Informationsquellen einzuschätzen; Werkzeuge zur Beurteilung der Herkunft; und Prozesse etablieren, um dem Missbrauch dieser Verfahren und Tools entgegenzuwirken – was sich wie eine Liste von Dingen liest, die Elon Musk seit der Übernahme von Twitter (jetzt X) demontiert hat.

Insbesondere wurde Musk auch vorgeworfen, unter seiner Aufsicht Hassreden auf dem Podium gedeihen zu lassen. Und zum Zeitpunkt des Verfassens dieses Artikels wird von der EU gegen

Transparenz zur Stärkung der Verantwortlichkeit

In Bezug auf politische Werbung weisen die Leitlinien die Plattformen auf neue Transparenzvorschriften in diesem Bereich hin und raten ihnen, sich auf die rechtsverbindliche Regelung vorzubereiten, indem sie Schritte unternehmen, um sich jetzt an die Anforderungen anzupassen. (Zum Beispiel durch eindeutige Kennzeichnung politischer Werbung, Bereitstellung von Informationen über den Sponsor hinter diesen bezahlten politischen Botschaften, Pflege eines öffentlichen Archivs politischer Werbung und Einrichtung von Systemen zur Überprüfung der Identität politischer Werbetreibender.)

An anderer Stelle wird in den Leitlinien auch dargelegt, wie mit Wahlrisiken im Zusammenhang mit Influencern umzugehen ist.

Plattformen sollten gemäß den Leitlinien auch über Systeme verfügen, die es ihnen ermöglichen, Desinformation zu entmonetarisieren, und werden aufgefordert, Dritten, die Prüfungen und Untersuchungen zu Wahlrisiken durchführen, einen „stabilen und zuverlässigen“ Datenzugriff zu ermöglichen. Auch der Datenzugang zur Untersuchung von Wahlrisiken solle kostenlos zur Verfügung gestellt werden, heißt es in dem Rat.

Allgemeiner ausgedrückt ermutigt der Leitfaden die Plattformen, mit Aufsichtsbehörden, Experten der Zivilgesellschaft und untereinander zusammenzuarbeiten, wenn es um den Austausch von Informationen über Wahlsicherheitsrisiken geht – und fordert sie auf, Kommunikationskanäle für Tipps und Risikoberichterstattung während Wahlen einzurichten.

Für den Umgang mit Vorfällen mit hohem Risiko empfiehlt der Rat, dass Plattformen einen internen Mechanismus zur Reaktion auf Vorfälle einrichten, der die oberste Führungsebene einbezieht und andere relevante Stakeholder innerhalb der Organisation einbindet, um die Verantwortlichkeit für ihre Reaktionen auf Wahlereignisse zu erhöhen und das Risiko zu vermeiden, dass ihnen die Verantwortung entzogen wird.

Nach der Wahl schlägt die EU den Plattformen vor, einen Überblick über ihr Abschneiden zu erstellen und zu veröffentlichen und dabei die Einschätzungen Dritter einzubeziehen (d. h. anstatt nur zu versuchen, ihre eigenen Hausaufgaben zu machen, wie sie es in der Vergangenheit vorgezogen haben, sondern zu versuchen, die laufende Plattform mit einem PR-Glanz zu versehen). manipulierte Risiken).

Die Wahlsicherheitsrichtlinien sind als solche nicht verbindlich, aber wenn sich Plattformen für einen anderen als den empfohlenen Ansatz zur Bewältigung von Bedrohungen in diesem Bereich entscheiden, müssen sie nach Ansicht der Kommission nachweisen können, dass ihr alternativer Ansatz den Standards des Blocks entspricht.

Wenn sie dies nicht tun, riskieren sie einen Verstoß gegen das DSA, das bei bestätigten Verstößen Strafen von bis zu 6 % des weltweiten Jahresumsatzes vorsieht. Es besteht also ein Anreiz für Plattformen, sich dem Programm des Blocks anzuschließen und die Ressourcen zur Bekämpfung politischer Desinformation und anderer Informationsrisiken für Wahlen aufzustocken, um so ihr regulatorisches Risiko zu verringern. Aber sie müssen den Rat trotzdem befolgen.

Weitere konkrete Empfehlungen für die bevorstehenden Wahlen zum Europäischen Parlament, die vom 6. bis 9. Juni stattfinden, sind ebenfalls in den EU-Leitlinien enthalten.

Aus technischer Sicht befinden sich die Richtlinien zur Wahlsicherheit derzeit noch im Entwurf. Die Kommission sagte jedoch, dass die formelle Annahme im April erwartet werde, sobald alle Sprachversionen der Leitlinien verfügbar seien.

tch-1-tech