Meta und Snap sind die neuesten Technologiefirmen, die von der Europäischen Kommission formelle Informationsanfragen (RFI) zu den Maßnahmen erhalten haben, die sie zum Schutz Minderjähriger auf ihren Plattformen im Einklang mit den Anforderungen des Digital Services Act (DSA) der Union ergreifen.
Gestern schickte die Kommission ähnliche Informationsanfragen an TikTok und YouTube, die sich ebenfalls auf den Schutz von Kindern konzentrierten. Die Sicherheit von Minderjährigen hat sich schnell zu einem vorrangigen Bereich für die DSA-Aufsicht der EU entwickelt.
Die Kommission hat bereits im April 19 sogenannte sehr große Online-Plattformen (VLOPs) und sehr große Online-Suchmaschinen (VLOSEs) benannt, darunter die sozialen Netzwerke Facebook und Instagram von Meta sowie die Messaging-App Snapchat von Snap.
Während die vollständige Regelung erst im Februar nächsten Jahres in Kraft treten wird, wenn die Compliance für kleinere Dienste in Kraft tritt, wird erwartet, dass größere Plattformen bereits ab Ende August DSA-konform sein werden.
In der neuesten RFI werden Meta und Snap um weitere Einzelheiten dazu gebeten, wie sie ihren Verpflichtungen im Zusammenhang mit Risikobewertungen und Minderungsmaßnahmen zum Schutz Minderjähriger im Internet nachkommen – insbesondere im Hinblick auf die Risiken für die geistige und körperliche Gesundheit von Kindern.
Den beiden Unternehmen wurde bis zum 1. Dezember Zeit gegeben, auf die jüngste Informationsanfrage zu antworten.
Ein Snap-Sprecher, der um einen Kommentar gebeten wurde, sagte:
Wir haben die Informationsanfrage erhalten und werden der Kommission zu gegebener Zeit antworten. Wir teilen die Ziele der EU und der DSA, um sicherzustellen, dass digitale Plattformen ihren Nutzern ein altersgerechtes, sicheres und positives Erlebnis bieten.
Meta hat uns auch eine Stellungnahme geschickt:
Wir sind fest entschlossen, Teenagern sichere und positive Online-Erlebnisse zu bieten, und haben bereits über 30 Tools zur Unterstützung von Teenagern und ihren Familien eingeführt. Dazu gehören Überwachungstools, mit denen Eltern entscheiden können, wann und wie lange ihre Teenager Instagram nutzen, Altersverifizierungstechnologie, die dabei hilft, sicherzustellen, dass Teenager altersgerechte Erfahrungen machen, und Tools wie „Quiet Mode“ und „Take A Break“, die Teenagern dabei helfen, ihre Bildschirmzeit zu verwalten. Wir freuen uns darauf, der Europäischen Kommission weitere Einzelheiten zu dieser Arbeit mitzuteilen.
Es ist nicht das erste DSA RFI Meta, das es erhalten hat; Die Kommission hat sie kürzlich auch um weitere Einzelheiten darüber gebeten, was sie unternimmt, um illegale Inhalte und Desinformationsrisiken im Zusammenhang mit dem Krieg zwischen Israel und der Hamas einzudämmen. und für weitere Einzelheiten zu den Maßnahmen, die zur Gewährleistung der Wahlsicherheit ergriffen werden.
Der Krieg im Nahen Osten und die Wahlsicherheit haben sich neben dem Kinderschutz schnell als weitere vorrangige Bereiche für die Durchsetzung des DSA durch die Kommission herausgestellt.
In den letzten Tagen hat auch die EU herausgegeben eine Informationsanfrage zum chinesischen E-Commerce-Riesen AliExpress — Suche nach weiteren Informationen über Maßnahmen zur Einhaltung verbraucherschutzbezogener Verpflichtungen, insbesondere in Bereichen wie illegalen Produkten wie gefälschten Arzneimitteln. Risiken im Zusammenhang mit dem Online-Verkauf gefährlicher Güter scheinen daher ein weiterer Schwerpunkt zu sein.
Schwerpunktbereiche
Die Kommission sagt, ihr erster Fokus auf die Durchsetzung des DSA auf VLOPs/VLOSEs sei „selbsterklärend“ – sie konzentriert sich auf Bereiche, in denen sie es für zwingend erforderlich hält, dass das Flaggschiff-Rahmenwerk für Transparenz und Rechenschaftspflicht schnell Ergebnisse liefert.
„Wenn Sie wie wir eine neue digitale Regulierungsbehörde sind, müssen Sie Ihre Arbeit damit beginnen, vorrangige Bereiche zu identifizieren“, sagte ein Beamter der Kommission während einer Hintergrundbesprechung mit Journalisten. „Offensichtlich ist das im Kontext des Hamas-Israel-Konflikts – illegale Inhalte, Antisemitismus, Rassismus – ein wichtiger Bereich. Wir mussten da draußen sein, um die Plattformen an ihre Pflicht zu erinnern, mit ihren Systemen bereit zu sein, illegale Inhalte schnell entfernen zu können.
„Stellen Sie sich potenzielle Live-Aufnahmen von dem vor, was den Geiseln passieren könnte oder hätte passieren können, also mussten wir uns wirklich schon früh mit ihnen befassen. Auch um ein Partner bei der Bekämpfung der dortigen Desinformation zu sein.“
Ein weiterer „wichtiger Bereich“, in dem die Kommission diese Woche besonders tätig wurde, ist der Kinderschutz – angesichts des „großen Versprechens“, dass die Verordnung das Online-Erlebnis von Minderjährigen verbessern wird. Die ersten Risikobewertungsplattformen, die im Zusammenhang mit der Sicherheit von Kindern erstellt wurden, weisen laut Kommission Raum für Verbesserungen auf.
Die Offenlegungen im ersten Satz von Transparenzberichten, die die DSA von VLOPs und VLOSEs verlangt und die in den letzten Wochen vor Ablauf einer Frist Anfang dieses Monats veröffentlicht wurden, seien „eine gemischte Mischung“, sagte auch ein EU-Beamter.
Die Kommission hat kein zentrales Repository eingerichtet, in dem die Menschen problemlos auf alle Berichte zugreifen können. Sie sind aber auf den eigenen Seiten der Plattformen verfügbar. (Die DSA-Transparenzberichte von Meta für Facebook und Instagram können sein von hier heruntergeladen werden, Zum Beispiel; während Snaps Bericht ist hier.)
Zu den Offenlegungen gehören wichtige Kennzahlen wie aktive Nutzer pro EU-Mitgliedstaat. Die Berichte enthalten auch Informationen über die Ressourcen der Plattformen zur Inhaltsmoderation, einschließlich Einzelheiten zu den sprachlichen Fähigkeiten der Mitarbeiter der Inhaltsmoderation.
Plattformen, die nicht über eine ausreichende Anzahl von Content-Moderatoren verfügen, die alle in der EU gesprochenen Sprachen fließend beherrschen, sind seit langem ein Streitpunkt für die Union. Und während des heutigen Briefings beschrieb ein Kommissionsbeamter es als einen „ständigen Kampf“ mit Plattformen, einschließlich derjenigen, die sich dem EU-Verhaltenskodex zur Desinformation angeschlossen haben, der etwa fünf Jahre älter ist als der DSA.
Der Beamte sagte weiter, es sei unwahrscheinlich, dass die EU am Ende verlangen werde, dass eine bestimmte Anzahl von Moderatoren von VLOPs/VLOSES pro Sprache des Mitgliedstaats engagiert werde. Sie schlugen jedoch vor, dass die Transparenzberichterstattung dazu dienen sollte, „Gruppendruck“ auszuüben – etwa durch die Aufdeckung einiger „großer“ Unterschiede bei der relativen Ressourcenausstattung.
Während des Briefings hob die Kommission einige Vergleiche hervor, die sie bereits aus den ersten Berichtsreihen gezogen hatte, darunter ein Diagramm, das die Anzahl der von Plattformen gemeldeten EU-Content-Moderatoren zeigt – womit YouTube weit an der Spitze liegt (mit 16.974 Meldungen); gefolgt von Google Play (7.319); und TikTok (6.125).
Während Meta nur 1.362 EU-Inhaltsmoderatoren meldete – was weniger gleichmäßig ist als bei Snap (1.545); oder Elon Musk besaß X/Twitter (2.294).
Dennoch warnten Beamte der Kommission, dass die Frühberichterstattung nicht standardisiert sei. (In dem Bericht von Snap heißt es zum Beispiel, dass sein Inhaltsmoderationsteam „auf der ganzen Welt tätig ist“ – und die Aufschlüsselung der menschlichen Moderationsressourcen weist auf „die Sprachspezialitäten der Moderatoren“ hin. Allerdings weist er darauf hin, indem er darauf hinweist, dass einige Moderatoren auf mehrere Sprachen spezialisiert sind. Also Vermutlich moderieren einige seiner „EU-Moderatoren“ möglicherweise nicht ausschließlich Inhalte, die sich auf EU-Nutzer beziehen.)
„Trotz der Transparenz gibt es noch einiges an technischer Arbeit zu tun, denn wir wollen sicherstellen, dass jeder die gleiche Vorstellung davon hat, was ein Inhaltsmoderator ist“, bemerkte ein Beamter der Kommission. „Es ist nicht unbedingt für jede Plattform das Gleiche. Was bedeutet es, eine Sprache zu sprechen? Es klingt dumm, aber es ist tatsächlich etwas, das wir etwas genauer untersuchen müssen.“
Ein weiteres Element, das sie gerne verstehen würden, sei „Was ist der stabile Zustand von Content-Moderatoren?“ – also ob es eine permanente Ebene gibt oder ob beispielsweise Ressourcen für eine Wahl oder ein Krisenereignis abgerufen werden – und fügten hinzu, dass dies der Fall sei etwas, das die Kommission derzeit untersucht.
In Bezug auf
EU-Beamte sagten jedoch, dass X immer noch über einige Wahlintegritätsteams verfügt, mit denen sie zusammenarbeiten, um mehr über seinen Ansatz zur Aufrechterhaltung seiner Richtlinien in diesem Bereich zu erfahren.
Beispiellose Transparenz
Klar ist, dass die ersten DSA-Transparenzberichte von Plattformen neue Fragen aufgeworfen haben, die wiederum eine Welle von RFIs ausgelöst haben, da die EU versucht, die Offenlegungen, die sie von Big Tech erhält, zu klären. Die Flut an RFIs spiegelt also Lücken in den frühen Offenlegungen wider, während das Regime an die Macht kommt.
Dies kann zum Teil daran liegen, dass die Transparenzberichterstattung noch nicht harmonisiert ist. Aber das wird sich ändern, da die Kommission bestätigt hat, dass sie voraussichtlich Anfang nächsten Jahres einen Durchführungsakt (sog. Sekundärgesetzgebung) erlassen wird, der Berichtsvorlagen für diese Offenlegungen enthalten wird.
Das deutet darauf hin, dass wir letztendlich damit rechnen können, dass künftig weniger RFIs an Plattformen gesendet werden, da die Informationen, die sie bereitstellen müssen, standardisierter werden und der Datenfluss stabiler und vorhersehbarer wird.
Es ist jedoch klar, dass es einige Zeit dauern wird, bis sich das Regime durchsetzt und die von der EU gewünschte Wirkung entfaltet – indem es Big Tech zu einer verantwortungsvolleren und verantwortungsvolleren Beziehung zu den Nutzern und der Gesellschaft im Allgemeinen zwingt.
In der Zwischenzeit sind die RFIs ein Zeichen dafür, dass sich die Räder der DSA drehen.
Die Kommission möchte gerne gesehen werden, dass sie ihre Befugnisse aktiv ausübt, um an Daten zu gelangen, von denen sie behauptet, dass sie von den Plattformen noch nie zuvor öffentlich bekannt gegeben wurden – etwa bei der Bereitstellung von Ressourcen für die Moderation von Inhalten pro Markt; oder Daten über die Genauigkeit von KI-Moderationstools. Daher sollten Plattformen damit rechnen, in den kommenden Monaten (und Jahren) noch zahlreiche weitere solcher Anfragen zu erhalten, da die Regulierungsbehörden ihre Aufsicht vertiefen und versuchen zu überprüfen, ob die als Reaktion auf das neue regulatorische Risiko aufgebauten VLOPs/VLOSEs-Systeme wirklich „effektiv“ sind oder nicht.
Die Kommission hofft, dass die DSA im Laufe der Zeit ein „beispielloses“ Fenster zur Arbeitsweise der Technologiegiganten öffnen wird. Oder eine „völlig neue Dimension der Transparenz“ einleiten, wie es einer der Beamten heute ausdrückte. Und dieser Neustart wird die Funktionsweise der Plattformen zum Besseren verändern, ob es ihnen gefällt oder nicht.
„ICH„Es ist wichtig anzumerken, dass es bereits Veränderungen gibt“, schlug ein Beamter der Kommission heute vor. „Wenn man den gesamten Bereich der Content-Moderation betrachtet, hat man es jetzt schwarz auf weiß, mit den Transparenzberichten … und das ist Gruppenzwang, den wir natürlich weiterhin ausüben werden. Aber auch die Öffentlichkeit kann weiterhin Gruppenzwang ausüben und fragen: „Moment mal, warum hat X zum Beispiel nicht die gleiche Anzahl an Content-Moderatoren wie andere?“
Auch heute bestätigten EU-Beamte, dass noch keine formellen DSA-Untersuchungen eingeleitet wurden. (Auch hier handelt es sich bei den RFIs um einen sequenziellen und notwendigen Vorschritt für mögliche künftige Untersuchungen, die in den kommenden Wochen und Monaten eingeleitet werden.)
Die Durchsetzung – in Form von Bußgeldern oder anderen Sanktionen für bestätigte Verstöße – kann jedoch erst im nächsten Frühjahr beginnen, da die gesamte Regelung einsatzbereit sein muss, bevor formelle Durchsetzungsverfahren stattfinden können. Daher werden die nächsten Monate der DSA von der Informationsbeschaffung geprägt sein; und – so hofft die EU – beginnen, die Macht der Transparenz zu demonstrieren, um eine neue, quantifiziertere Erzählung über Big Tech zu formen.
Dies deutet wiederum darauf hin, dass es an dieser Front bereits positive Veränderungen gibt. Anstelle der üblichen „allgemeinen Antworten und absoluten Zahlen“, die Technologiegiganten routinemäßig in der freiwilligen Berichterstattung anbieten (wie dem oben genannten Desinformationskodex), extrahieren die RFIs im Rahmen des rechtsverbindlichen DSA „viel mehr verwertbare Daten und Informationen“. so ein Beamter der Kommission.
„Wenn wir sehen, dass wir nicht die richtigen Antworten bekommen, [we might] eine Untersuchung einleiten, eine förmliche Untersuchung; wir könnten zu vorläufigen Maßnahmen kommen; „Wir könnten zu Compliance-Vereinbarungen kommen“, bemerkte ein anderer Beamter und beschrieb den Prozess als „eine ganze Lawine einzelner Schritte – und erst ganz am Ende stünde die mögliche Sanktionsentscheidung“. Sie betonten jedoch auch, dass Transparenz selbst ein Auslöser für Veränderungen sein kann, und verwiesen auf die Macht des „Gruppenzwangs“ und die Gefahr eines „Reputationsrisikos“, um Reformen voranzutreiben.