Die spaltende „Personalisierung“ großer Technologiekonzerne löst erneut Forderungen nach einer standardmäßigen Deaktivierung profilbasierter Content-Feeds in der EU aus

In der Europäischen Union könnte sich ein weiteres politisches Tauziehen um die Content-Empfehlungssysteme von Big Tech abzeichnen, wo die Kommission mit der Forderung mehrerer Parlamentarier konfrontiert wird, profilierungsbasierte Content-Feeds einzudämmen – auch bekannt als „Personalisierungs“-Engines, die Benutzerdaten verarbeiten um zu bestimmen, welche Inhalte ihnen angezeigt werden sollen.

Die Verfolgung und Profilierung von Nutzern auf Mainstream-Plattformen, um „personalisierte“ Content-Feeds zu betreiben, gibt seit langem Bedenken hinsichtlich möglicher Schäden für Einzelpersonen und demokratische Gesellschaften. Kritiker behaupten, die Technologie treibe die Sucht nach sozialen Medien voran und stelle ein Risiko für die psychische Gesundheit schutzbedürftiger Menschen dar. Es gibt auch Bedenken, dass die Technologie den sozialen Zusammenhalt untergräbt, indem sie dazu neigt, spaltende und polarisierende Inhalte zu verstärken, die Einzelpersonen durch die Kanalisierung ihrer Empörung und Wut in politische Extreme treiben können.

Der Brief, unterzeichnet von 17 Abgeordneten aus Fraktionen wie S&D, Linke, Grüne, EVP und Renew Europe, plädiert dafür, die Empfehlungssysteme von Technologieplattformen standardmäßig abzuschalten – eine Idee, die während der Verhandlungen über den Digital Services Act (DSA) der Union in Umlauf gebracht wurde ), der jedoch nicht in die endgültige Verordnung aufgenommen wurde, da es keine demokratische Mehrheit gab. Stattdessen einigten sich die EU-Gesetzgeber auf Transparenzmaßnahmen für Empfehlungssysteme sowie auf die Anforderung, dass größere Plattformen (sogenannte VLOPs) mindestens einen Content-Feed bereitstellen müssen, der nicht auf Profiling basiert.

Doch in ihrem Brief drängen die Abgeordneten auf einen generellen Ausstieg aus der Technologie. „Interaktionsbasierte Empfehlungssysteme, insbesondere hyperpersonalisierte Systeme, stellen eine ernsthafte Bedrohung für unsere Bürger und unsere Gesellschaft insgesamt dar, da sie emotionale und extreme Inhalte priorisieren und sich insbesondere an Personen richten, die wahrscheinlich provoziert werden“, schreiben sie.

„Der heimtückische Kreislauf setzt Nutzer sensationslüsternen und gefährlichen Inhalten aus und verlängert so ihr Plattform-Engagement, um die Werbeeinnahmen zu maximieren. „Amnestys Experiment auf TikTok ergab, dass der Algorithmus einen simulierten 13-Jährigen innerhalb von nur einer Stunde Videos ausgesetzt hat, die Selbstmord verherrlichen.“ Darüber hinaus ergab die interne Untersuchung von Meta, dass erhebliche 64 % der Beitritte zu extremistischen Gruppen über deren Empfehlungstools erfolgen, was die Verbreitung extremistischer Ideologien verschärft.“

Der Anruf folgt Entwurf einer Online-Sicherheitsrichtlinie für Video-Sharing-Plattformen, veröffentlicht Anfang dieses Monats von der irischen Medienkommission (Coimisiún na Meán) – die für die DSA-Aufsicht vor Ort verantwortlich sein wird, sobald die Verordnung im kommenden Februar für in den Geltungsbereich fallende Dienste durchsetzbar wird. Coimisiún na Meán berät derzeit über Leitlinien, die vorschlagen, dass Video-Sharing-Plattformen „Maßnahmen ergreifen sollten, um sicherzustellen, dass auf Profilierung basierende Empfehlungsalgorithmen standardmäßig deaktiviert sind“.

Die Veröffentlichung der Leitlinien erfolgte im Anschluss an eine Episode von Gewalttätige Unruhen in Dublin Die Polizeibehörde des Landes ging davon aus, dass sie durch Falschinformationen angeheizt wurde, die von rechtsextremen „Hooligans“ in sozialen Medien und Messaging-Apps verbreitet wurden. Und Anfang dieser Woche die Irischer Rat für bürgerliche Freiheiten (ICCL) – das sich seit langem für Fragen digitaler Rechte einsetzt – forderte die Kommission außerdem auf, den Vorschlag der Coimisiún na Meán zu unterstützen und ihn zu veröffentlichen eigener Bericht plädiert dafür, personalisierte Feeds standardmäßig zu deaktivieren, da es argumentiert, dass Social-Media-Algorithmen Gesellschaften auseinanderreißen.

In ihrem Brief greifen die Abgeordneten auch den Vorschlag der irischen Medienregulierungsbehörde auf und schlagen vor, dass er Probleme im Zusammenhang mit Empfehlungssystemen, die dazu neigen, „emotionale und extreme Inhalte“ zu fördern, „effektiv“ angehen würde, was ihrer Meinung nach ebenfalls dem bürgerlichen Zusammenhalt schaden könne.

Der Brief bezieht sich auch auf eine kürzlich verabschiedete Bericht des Europäischen Parlaments über suchterzeugende Gestaltung von Online-Diensten und Verbraucherschutz, in dem ihrer Meinung nach „die schädlichen Auswirkungen von Empfehlungssystemen auf Online-Dienste hervorgehoben wurden, die Profile von Personen, insbesondere Minderjährigen, erstellen, mit der Absicht, Benutzer so lange wie möglich auf der Plattform zu halten und sie so zu manipulieren.“ die künstliche Verstärkung von Hass, Selbstmord, Selbstverletzung und Desinformation“.

„Wir fordern die Europäische Kommission auf, dem Beispiel Irlands zu folgen und entschiedene Maßnahmen zu ergreifen, indem sie diese Maßnahme nicht nur im Rahmen des TRIS genehmigt [Technical Regulations Information System] sondern auch durch die Empfehlung dieser Maßnahme als Abhilfemaßnahme für sehr große Online-Plattformen [VLOPs] gemäß Artikel 35(1)(c) des Gesetzes über digitale Dienste, um sicherzustellen, dass die Bürger eine sinnvolle Kontrolle über ihre Daten und ihre Online-Umgebung haben“, schreiben die Abgeordneten und fügen hinzu: „Der Schutz unserer Bürger, insbesondere der jüngeren Generation, ist von größter Bedeutung.“ Bedeutung, und wir glauben, dass die Europäische Kommission eine entscheidende Rolle dabei spielt, ein sicheres digitales Umfeld für alle zu gewährleisten. Wir freuen uns auf Ihr schnelles und entschlossenes Handeln in dieser Angelegenheit.“

Gemäß TRIS sind EU-Mitgliedstaaten verpflichtet, der Kommission Entwürfe technischer Vorschriften zu melden, bevor diese in nationales Recht übernommen werden, damit die EU eine rechtliche Prüfung durchführen kann, um sicherzustellen, dass die Vorschläge mit den Regeln der Union – in diesem Fall dem DSA – im Einklang stehen .

Das System bedeutet, dass nationale Gesetze, die darauf abzielen, EU-Vorschriften zu „vergolden“, bei der Überprüfung wahrscheinlich durchfallen. Daher wird der Vorschlag der irischen Medienkommission, die Empfehlungssysteme von Videoplattformen standardmäßig zu deaktivieren, den TRIS-Prozess möglicherweise nicht überleben, da er offenbar über den Wortlaut des einschlägigen Gesetzes hinausgeht.

Selbst wenn der Vorschlag der Coimisiún na Meán die rechtliche Konsistenzprüfung der EU nicht besteht, verlangt die DSA von größeren Plattformen (auch bekannt als VLOPS), Risiken zu bewerten und zu mindern, die sich aus Empfehlungssystemen ergeben. So ist es zumindest möglich Plattformen könnten beschließen, diese Systeme als Compliance-Maßnahme selbst standardmäßig abzuschalten, um ihren DSA-Verpflichtungen zur systemischen Risikominderung nachzukommen.

Obwohl noch keine so weit gegangen ist – und es ist eindeutig kein Schritt, den eine dieser werbefinanzierten, auf Engagement ausgerichteten Plattformen als kommerziellen Standard wählen würde.

Auf unsere Anfrage lehnte die Kommission eine öffentliche Stellungnahme zum Brief der Europaabgeordneten (oder zum Bericht des ICCL) ab. Stattdessen verwies ein Sprecher auf die seiner Meinung nach „klaren“ Verpflichtungen für die Empfehlungssysteme von VLOPs gemäß Artikel 38 des DSA – der verlangt, dass Plattformen für jedes dieser Systeme mindestens eine Option bereitstellen, die nicht auf Profiling basiert. Aber wir konnten die Profiling-Feed-Debatte mit einem EU-Beamten besprechen, der über Hintergrundinformationen sprach, um freier sprechen zu können.

Sie waren sich einig, dass Plattformen sich dafür entscheiden könnten, profilbasierte Empfehlungssysteme im Rahmen ihrer DSA-Compliance zur systemischen Risikominderung standardmäßig auszuschalten, bestätigten jedoch, dass noch keines von ihnen so weit von sich gegangen sei.

Bisher haben wir nur Fälle gesehen, in denen Nutzern Nicht-Profiling-Feeds als Option zur Verfügung gestellt wurden – etwa von TikTok und Instagram –, um die oben genannte DSA-Anforderung (Artikel 38) zu erfüllen und den Nutzern die Möglichkeit zu geben, diese zu vermeiden diese Art der Inhaltspersonalisierung. Dies erfordert jedoch ein aktives Opt-out durch die Nutzer – wohingegen die Standardeinstellung von Feeds auf Nicht-Profiling eindeutig eine strengere Art der Inhaltsregulierung wäre, da keine Aktion des Nutzers erforderlich wäre, um wirksam zu werden.

Der EU-Beamte, mit dem wir gesprochen haben, bestätigte, dass die Kommission in ihrer Eigenschaft als Durchsetzungsbehörde des DSA für VLOPs Empfehlungssysteme prüft – unter anderem im Rahmen des formellen Verfahrens, das Anfang dieser Woche am X eröffnet wurde. Empfehlungssysteme standen auch im Mittelpunkt einiger formeller Informationsanfragen, die die Kommission an VLOPs gesendet hat, darunter eines an Instagram, das sich auf Kindersicherheitsrisiken konzentrierte, sagten sie uns. Und sie waren sich einig, dass die EU größere Plattformen in ihrer Rolle als Durchsetzungsorgan zwingen könnte, personalisierte Feeds standardmäßig zu deaktivieren, d.

Sie schlugen jedoch vor, dass die Kommission einen solchen Schritt nur dann unternehmen würde, wenn sie feststellte, dass er bestimmte Risiken wirksam mindern würde. Der Beamte wies darauf hin, dass mehrere Arten von profilierungsbasierten Content-Feeds im Spiel seien, sogar pro Plattform, und betonte, dass jede davon im Kontext betrachtet werden müsse. Generell plädierten sie für „Nuancierung“ in der Debatte über die Risiken von Empfehlungssystemen.

Der Ansatz der Kommission werde hier darin bestehen, Bedenken von Fall zu Fall zu bewerten, schlugen sie vor – und sich für datengesteuerte politische Interventionen zu VLOPs statt für pauschale Maßnahmen einzusetzen. Schließlich handelt es sich um eine Ansammlung von Plattformen, die vielfältig genug sind, um Video-Sharing- und Social-Media-Giganten, aber auch Einzelhandels- und Informationsdienste – und (seit Kurzem) Pornoseiten – zu umfassen. Das Risiko, dass Durchsetzungsentscheidungen durch rechtliche Anfechtungen außer Kraft gesetzt werden, wenn es an stichhaltigen Beweisen für ihre Untermauerung mangelt, ist eindeutig ein Anliegen der Kommission.

Der Beamte argumentierte auch, dass es notwendig sei, mehr Daten zu sammeln, um auch grundlegende Aspekte zu verstehen, die für die Debatte über Empfehlungssysteme relevant seien – etwa ob die standardmäßige Deaktivierung der Personalisierung als Maßnahme zur Risikominderung wirksam wäre. Verhaltensaspekte müssten ebenfalls genauer untersucht werden, schlugen sie vor.

Vor allem Kinder könnten sehr motiviert sein, eine solche Einschränkung zu umgehen, indem sie einfach die Einstellung umkehren, argumentierten sie, da sich Kinder dazu in der Lage gezeigt hätten, der elterlichen Kontrolle zu entkommen – und behaupteten, es sei nicht klar, ob die standardmäßige Deaktivierung profilbasierter Empfehlungssysteme dies tun würde als Kinderschutzmaßnahme tatsächlich wirksam sein.

Insgesamt war die Botschaft unserer EU-Quelle ein Appell, der Verordnung – und der Kommission – Zeit zum Arbeiten zu geben. Das DSA trat erst Ende August für die erste Reihe von VLOPs in Kraft. Dabei haben wir erst diese Woche gesehen, dass die erste formelle Untersuchung (zu

Wir haben in den letzten Wochen auch eine Flut formeller Informationsanfragen zu Plattformen gesehen, nachdem diese ihre ersten Risikobewertungsberichte vorgelegt hatten – was darauf hindeutet, dass die Kommission mit dem bisher bereitgestellten Detaillierungsgrad unzufrieden ist. Das bedeutet, dass bald energischere Maßnahmen folgen könnten, wenn die EU ihre neue Rolle als regionaler Internet-Sheriff übernimmt. Unterm Strich zeichnet sich also ab, dass 2024 ein bedeutendes Jahr für die politische Reaktion des Blocks auf Big Tech wird. Und um zu beurteilen, ob die Durchsetzung der EU die Ergebnisse liefert, nach denen sich Aktivisten für digitale Rechte sehnen.

„Das sind Themen, zu denen wir Plattformen im Rahmen unserer rechtlichen Befugnisse hinterfragen – aber der Algorithmus von Instagram ist anders als der von Es wird ein Flickenteppich an Interventionen erstellt, zu denen auch die Vorgabe unterschiedlicher Standardwerte für VLOPs gehören kann, abhängig von den Kontexten und Risiken in den verschiedenen Feeds. „Wir bevorzugen einen Ansatz, der die Besonderheiten der Plattformen jedes Mal wirklich berücksichtigt.“

„Wir starten jetzt diese Durchsetzungsmaßnahme. Und das ist tatsächlich ein weiterer Grund, unsere Energie nicht in konkurrierenden Rechtsrahmen oder so etwas zu verwässern“, fügten sie hinzu und appellierten an die Befürworter digitaler Rechte, sich dem Programm der Kommission anzuschließen. „Mir wäre es lieber, wenn wir im Rahmen der DSA arbeiten, die die Probleme angehen kann [the MEPs’ letter and ICCL report] erhöht sich auf Empfehlungssysteme und verstärkt illegale Inhalte.“



tch-1-tech