Ein umstrittener Vorstoß von EU-Gesetzgebern, Messaging-Plattformen gesetzlich zu verpflichten, die private Kommunikation von Bürgern auf Material über sexuellen Missbrauch von Kindern (CSAM) zu scannen, könnte zu Millionen von Fehlalarmen pro Tag führen, warnten Hunderte von Sicherheits- und Datenschutzexperten in einem offener Brief Donnerstag.
Die Besorgnis über den EU-Vorschlag hat zugenommen, seit die Kommission vor zwei Jahren den CSAM-Scanning-Plan vorgeschlagen hat – unabhängige Experten, Gesetzgeber im gesamten Europäischen Parlament und sogar der Datenschutzbeauftragte der Union waren unter denen, die Alarm schlugen.
Der EU-Vorschlag würde nicht nur erfordern, dass Messaging-Plattformen, die einen CSAM-Erkennungsauftrag erhalten, nach ihnen suchen bekannt CSAM; Sie müssten außerdem nicht spezifizierte Erkennungsscantechnologien verwenden, um unbekannte CSAM aufzuspüren und stattfindende Grooming-Aktivitäten zu identifizieren – was zu Vorwürfen gegen Gesetzgeber führen würde, die sich magischen Denkweisen des Technosolutionismus hingeben.
Kritiker argumentieren, dass der Vorschlag das technisch Unmögliche verlange und das erklärte Ziel, Kinder vor Missbrauch zu schützen, nicht erreichen werde. Stattdessen, so sagen sie, werde es verheerende Auswirkungen auf die Internetsicherheit und die Privatsphäre der Webbenutzer haben, da Plattformen dazu gezwungen würden, alle ihre Benutzer umfassend zu überwachen und riskante, unerprobte Technologien wie clientseitiges Scannen einzusetzen.
Experten sagen, dass es keine Technologie gibt, die die gesetzlichen Anforderungen erfüllen kann, ohne weit mehr Schaden als Nutzen anzurichten. Dennoch macht die EU trotzdem weiter.
Der jüngste offene Brief befasst sich mit Änderungen des kürzlich vom Europäischen Rat vorgeschlagenen Entwurfs einer CSAM-Scanning-Verordnung, die nach Ansicht der Unterzeichner grundlegende Mängel des Plans nicht beheben.
Zu den Unterzeichnern des Briefes – zum Zeitpunkt des Schreibens waren es 270 – gehören Hunderte von Akademikern, darunter bekannte Sicherheitsexperten wie Professor Bruce Schneier von der Harvard Kennedy School und Dr. Matthew D. Green von der Johns Hopkins University, sowie eine Handvoll anderer Forscher, die für Technologieunternehmen wie IBM, Intel und Microsoft arbeiten.
Ein früherer offener Brief (letzten Juli), unterzeichnet von 465 Wissenschaftlern, warnte davor, dass die Erkennungstechnologien, auf denen der Gesetzesvorschlag basiert und Plattformen zur Einführung zwingen, „zutiefst fehlerhaft und anfällig für Angriffe“ seien und zu einer erheblichen Schwächung der lebenswichtigen Schutzmaßnahmen führen würden, die End-to-End-to-Angriffe bieten. Ende der verschlüsselten (E2EE) Kommunikation.
Wenig Anklang bei Gegenvorschlägen
Im vergangenen Herbst schlossen sich die Abgeordneten des Europäischen Parlaments zusammen, um mit einem grundlegend überarbeiteten Ansatz dagegen vorzugehen – der das Scannen auf Einzelpersonen und Gruppen beschränken würde, die bereits des sexuellen Missbrauchs von Kindern verdächtigt werden; Beschränken Sie es auf bekannte und unbekannte CSAM, wodurch die Anforderung zum Scannen nach Grooming entfällt. und beseitigen Sie alle Risiken für E2EE, indem Sie es auf Plattformen beschränken, die nicht Ende-zu-Ende-verschlüsselt sind. Doch der Europäische Rat, das andere mitgesetzgebende Organ, das an der EU-Gesetzgebung beteiligt ist, muss sich zu dieser Angelegenheit noch äußern, und wo er landet, wird die endgültige Form des Gesetzes beeinflussen.
Der letzte auf dem Tisch liegende Änderungsantrag wurde im März von der belgischen Ratspräsidentschaft vorgelegt, die die Diskussionen im Namen von Vertretern der Regierungen der EU-Mitgliedstaaten leitet. Doch in dem offenen Brief warnen die Experten, dass dieser Vorschlag immer noch nicht in der Lage ist, die grundlegenden Mängel des Kommissionsansatzes zu beheben, und argumentieren, dass die Überarbeitungen noch immer nicht abgeschlossen seien erstellen „beispiellose Möglichkeiten zur Überwachung und Kontrolle von Internetnutzern“ und würden „… a „Sichere digitale Zukunft für unsere Gesellschaft und kann enorme Folgen für demokratische Prozesse in Europa und darüber hinaus haben.“
Zu den Optimierungen, die im geänderten Ratsvorschlag zur Diskussion stehen, gehört der Vorschlag, dass Erkennungsanordnungen durch die Anwendung von Risikokategorisierungs- und Risikominderungsmaßnahmen gezielter durchgeführt werden können; und Cybersicherheit und Verschlüsselung können geschützt werden, indem sichergestellt wird, dass Plattformen nicht verpflichtet sind, Zugang zu entschlüsselten Daten zu schaffen, und indem Erkennungstechnologien überprüft werden. Doch die 270 Experten gehen davon aus, dass es sich hierbei um ein Herumspielen am Rande einer Sicherheits- und Datenschutzkatastrophe handelt.
Aus „technischer Sicht wird dieser neue Vorschlag, um wirksam zu sein, auch die Kommunikations- und Systemsicherheit vollständig untergraben“, warnen sie. Wenn man sich auf „fehlerhafte Erkennungstechnologie“ verlässt, um Fälle von Interesse zu ermitteln, damit gezieltere Erkennungsbefehle gesendet werden können, wird das Risiko nicht verringert, dass das Gesetz eine dystopische Ära der „massiven Überwachung“ der Nachrichten von Webbenutzern einleitet Analyse.
In dem Brief geht es auch um einen Vorschlag des Rates, das Risiko falsch positiver Ergebnisse zu begrenzen, indem eine „Person von Interesse“ als ein Benutzer definiert wird, der bereits CSAM geteilt oder versucht hat, ein Kind zu pflegen – was voraussichtlich über eine automatisierte Bewertung erfolgen würde; B. auf einen Treffer bei bekannter CSAM oder auf zwei Treffer bei unbekannter CSAM/Grooming warten, bevor der Benutzer offiziell als Verdächtiger erkannt und dem EU-Zentrum gemeldet wird, das CSAM-Meldungen bearbeitet.
Milliarden von Benutzern, Millionen von Fehlalarmen
Die Experten warnen, dass dieser Ansatz wahrscheinlich immer noch zu einer großen Zahl von Fehlalarmen führen wird.
„Es ist höchst unwahrscheinlich, dass die Zahl der Fehlalarme aufgrund von Erkennungsfehlern wesentlich reduziert wird, es sei denn, die Anzahl der Wiederholungen ist so groß, dass die Erkennung nicht mehr wirksam ist. Angesichts der großen Menge an Nachrichten, die über diese Plattformen gesendet werden (in der Größenordnung von Milliarden), kann man mit einer sehr großen Menge an Fehlalarmen (in der Größenordnung von Millionen) rechnen“, schreiben sie und weisen darauf hin, dass die Plattformen am Ende wahrscheinlich geohrfeigt werden Mit einem Erkennungsauftrag kann es Millionen oder sogar Milliarden von Nutzern geben, wie zum Beispiel das Meta-eigene WhatsApp.
„Angesichts der Tatsache, dass es keine öffentlichen Informationen über die Leistung der Detektoren gibt, die in der Praxis verwendet werden könnten, stellen wir uns vor, wir hätten einen Detektor für CSAM und Grooming, wie im Vorschlag angegeben, mit einer Falsch-Positiv-Rate von nur 0,1 %.“ (d. h. eins zu tausend Mal wird Nicht-CSAM fälschlicherweise als CSAM klassifiziert), was viel niedriger ist als bei jedem derzeit bekannten Detektor.
„Angesichts der Tatsache, dass WhatsApp-Benutzer 140 Milliarden Nachrichten pro Tag senden, würde es jeden Tag 1,4 Millionen Fehlalarme geben, selbst wenn nur eine von hundert Nachrichten von solchen Detektoren getestet würde. Um die Zahl der Fehlalarme auf Hunderte zu reduzieren, müsste man statistisch gesehen mindestens fünf Wiederholungen mithilfe unterschiedlicher, statistisch unabhängiger Bilder oder Detektoren identifizieren. Und das gilt nur für WhatsApp – wenn wir andere Messaging-Plattformen, einschließlich E-Mail, in Betracht ziehen, würde die Anzahl der notwendigen Wiederholungen erheblich ansteigen, bis zu dem Punkt, dass die CSAM-Freigabefunktionen nicht mehr effektiv reduziert werden.“
Ein weiterer Vorschlag des Rates, Erkennungsbefehle auf Messaging-Apps zu beschränken, die als „hochriskant“ gelten, ist nach Ansicht der Unterzeichner eine nutzlose Überarbeitung, da sie argumentieren, dass er wahrscheinlich immer noch „wahllos eine große Anzahl von Menschen betreffen“ wird. Hier weisen sie darauf hin, dass für den Austausch von CSAM nur Standardfunktionen wie Bildfreigabe und Text-Chat erforderlich sind – Funktionen, die von vielen Dienstanbietern weitgehend unterstützt werden, was bedeutet, dass eine Kategorisierung mit hohem Risiko „zweifellos Auswirkungen auf viele Dienste“ haben wird.
Sie weisen auch darauf hin, dass die Einführung von E2EE zunimmt, was ihrer Meinung nach die Wahrscheinlichkeit erhöhen wird, dass Dienste, die es einführen, als risikoreich eingestuft werden. „Diese Zahl könnte mit den durch den Digital Markets Act eingeführten Interoperabilitätsanforderungen weiter steigen, was dazu führen wird, dass Nachrichten zwischen Diensten mit geringem Risiko und mit hohem Risiko übertragen werden. Dadurch könnten nahezu alle Dienste als risikoreich eingestuft werden“, argumentieren sie. (Hinweis: Die Interoperabilität von Nachrichten ist ein Kernelement des DMA der EU.)
Eine Hintertür für die Hintertür
Was den Schutz der Verschlüsselung betrifft, bekräftigt der Brief die Botschaft, die Sicherheits- und Datenschutzexperten den Gesetzgebern seit Jahren immer wieder zurufen: „Die Erkennung in Ende-zu-Ende-verschlüsselten Diensten untergräbt per Definition den Verschlüsselungsschutz.“
„Eines der Ziele des neuen Vorschlags besteht darin, ‚die Cybersicherheit und verschlüsselte Daten zu schützen und gleichzeitig Dienste, die Ende-zu-Ende-Verschlüsselung verwenden, im Rahmen der Erkennungsanordnungen zu halten‘.“ Wie wir bereits erklärt haben, ist dies ein Widerspruch in sich“, betonen sie. „Der durch die Ende-zu-Ende-Verschlüsselung gebotene Schutz bedeutet, dass niemand außer dem beabsichtigten Empfänger einer Kommunikation Informationen über den Inhalt einer solchen Kommunikation erhalten sollte. Ermöglichen von Erkennungsfunktionen, sei es für verschlüsselte Daten oder für Daten vor der Verschlüsselung, verstößt gegen die Definition der Vertraulichkeit, die eine Ende-zu-Ende-Verschlüsselung bietet.“
In den letzten Wochen haben Polizeichefs in ganz Europa eine eigene gemeinsame Erklärung verfasst, in der sie Bedenken hinsichtlich der Ausweitung von E2EE äußern und Plattformen auffordern, ihre Sicherheitssysteme so zu gestalten, dass sie weiterhin illegale Aktivitäten erkennen und Berichte über Nachrichteninhalte an die Strafverfolgungsbehörden senden können .
Die Intervention wird weithin als Versuch angesehen, Druck auf die Gesetzgeber auszuüben, damit diese Gesetze wie die CSAM-Scanning-Verordnung verabschieden.
Polizeichefs bestreiten, dass sie eine Hintertür der Verschlüsselung fordern, haben aber nicht genau erklärt, welche technischen Lösungen sie von den Plattformen erwarten, um den Gesuchten einen „rechtmäßigen Zugriff“ zu ermöglichen. Die Quadratur dieses Kreises bringt einen sehr schiefen Ball zurück ins Spielfeld des Gesetzgebers.
Wenn die EU ihren derzeitigen Kurs fortsetzt – vorausgesetzt, dass der Rat seinen Kurs nicht ändert, wie es die Abgeordneten gefordert haben –, werden die Folgen „katastrophal“ sein, warnen die Unterzeichner des Briefs weiter. „Es schafft einen Präzedenzfall für die Filterung des Internets und hindert Menschen daran, einige der wenigen verfügbaren Instrumente zu nutzen, um ihr Recht auf Privatleben im digitalen Raum zu schützen; Es wird eine abschreckende Wirkung haben, insbesondere auf Teenager, die für ihre Interaktionen stark auf Online-Dienste angewiesen sind. Es wird die Art und Weise verändern, wie digitale Dienste weltweit genutzt werden, und dürfte sich negativ auf Demokratien auf der ganzen Welt auswirken.“
Eine dem Rat nahestehende EU-Quelle konnte keinen Einblick in die aktuellen Diskussionen zwischen den Mitgliedstaaten geben, gab jedoch an, dass es am 8. Mai eine Sitzung der Arbeitsgruppe gebe, bei der bestätigt wurde, dass der Vorschlag für eine Verordnung zur Bekämpfung des sexuellen Missbrauchs von Kindern erörtert werde.