Untersuchungen zur Untersuchung von Standardeinstellungen und Geschäftsbedingungen, die Minderjährige von den Social-Media-Giganten TikTok, WhatsApp und Instagram in 14 verschiedenen Ländern – darunter die USA, Brasilien, Indonesien und Großbritannien – angeboten werden, haben ergeben, dass die drei Plattformen nicht das gleiche Maß an Datenschutz und Sicherheit bieten Schutzmaßnahmen für Kinder in allen Märkten, in denen sie tätig sind.
Das Schutzniveau, das Minderjährige bei einer Dienstleistung erhalten, kann laut dem neuen Bericht davon abhängen, wo auf der Welt sie leben – mit dem Titel: Globale Plattformen, Teilschutz — die „erhebliche“ Unterschiede in der Erfahrung von Kindern in verschiedenen Ländern auf „scheinbar identischen Plattformen“ feststellten.
Die Untersuchung wurde durchgeführt von Faires Spieleine gemeinnützige Organisation, die sich für ein Ende des Marketings einsetzt, das auf Kinder abzielt.
Als besonders problematisch hat sich in diesem Zusammenhang TikTok herausgestellt. Und neben der Veröffentlichung des Fairplay-Berichts wurde das Unternehmen in einem gemeinsamen Brief hervorgehoben, der von fast 40 Interessengruppen für Kindersicherheit und digitale Rechte unterzeichnet wurde und in dem es aufgefordert wird, einen „Safety by Design“- und „Children’s Rights by Design“-Ansatz anzubieten weltweit – anstatt nur die höchsten Standards in Regionen wie Europa zu bieten, wo die Regulierungsbehörden frühzeitig Maßnahmen ergriffen haben, um Kinder online zu schützen.
Unter Berufung auf Informationen aus dem Fairplay-Bericht haben sich 39 Organisationen für Kinderschutz und digitale Rechte aus 11 Ländern – darunter die britische 5Rights Foundation, das Tech Transparency Project, der Africa Digital Rights Hub in Ghana und die Eating Disorders Coalition for Research, Policy & Action – dazu verpflichtet nennen Sie nur einige – haben den Brief an den CEO von TikTok, Shou Zi Chew, mitunterzeichnet und ihn aufgefordert, sich mit den wichtigsten Designdiskriminierungen zu befassen, die im Bericht hervorgehoben werden.
Dazu gehören Diskrepanzen darin, wo TikTok Minderjährigen ein „altersgerechtes“ Designerlebnis bietet, wie z. B. die Standardeinstellungen auf „Privat“ (wie es in Großbritannien und bestimmten EU-Märkten der Fall ist) – während anderswo festgestellt wurde, dass es 17-jährige Benutzer nicht unterstützt auf öffentliche Konten.
Der Bericht identifizierte auch viele (außereuropäische) Märkte, in denen TikTok seine Nutzungsbedingungen nicht in der Muttersprache junger Menschen bereitstellt. Es wird auch ein Mangel an Transparenz in Bezug auf das Mindestalter kritisiert – wenn TikTok den Benutzern manchmal widersprüchliche Informationen liefert, ist es für Minderjährige schwierig zu wissen, ob der Dienst für sie geeignet ist.
„Viele der jungen Nutzer von TikTok sind keine Europäer; Die größten Märkte von TikTok liegen in den Vereinigten Staaten, Indonesien und Brasilien. Alle Kinder und Jugendlichen verdienen eine altersgerechte Erfahrung, nicht nur diejenigen aus Europa“, argumentieren die Autoren des Berichts.
Die Methodik für die Forschung von Fairplay umfasste zentrale Forscher mit Sitz in London und Sydney, die mit Unterstützung eines globalen Netzwerks lokaler Forschungsorganisationen die Datenschutzrichtlinien und AGB der Plattformen analysierten – was die Einrichtung experimenteller Konten zur Untersuchung von Variationen der angebotenen Standardeinstellungen beinhaltete bis 17-Jährige in verschiedenen Märkten.
Die Forscher schlagen vor, dass ihre Ergebnisse die Behauptungen der Social-Media-Giganten in Frage stellen, sich um den Schutz von Kindern zu kümmern – da sie Minderjährigen nachweislich nicht überall die gleichen Sicherheits- und Datenschutzstandards bieten.
Stattdessen scheinen Social-Media-Plattformen Lücken im globalen Flickwerk des Rechtsschutzes für Minderjährige auszunutzen, um kommerzielle Ziele wie die Steigerung des Engagements auf Kosten der Sicherheit und Privatsphäre von Kindern zu priorisieren.
Insbesondere wurde festgestellt, dass Kinder im globalen Süden und in bestimmten anderen Regionen einem manipulativeren Design ausgesetzt sind als Kinder in Europa – wo bereits rechtliche Rahmenbedingungen zum Schutz ihrer Online-Erfahrung erlassen wurden, wie z September 2020); oder die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union, die ab Mai 2018 in Kraft tritt – Datenverarbeiter müssen besondere Sorgfalt walten lassen, um Schutzmaßnahmen einzubauen, wenn Dienste die Informationen von Minderjährigen verarbeiten, mit dem Risiko hoher Bußgelder bei Nichteinhaltung.
Auf die Bitte, die Forschungsergebnisse in einer Zeile zusammenzufassen, sagte eine Sprecherin von Fairplay gegenüber Tech: „In Bezug auf eine einzeilige Zusammenfassung ist es so, dass die Regulierung funktioniert und Tech-Unternehmen handeln nicht ohne sie.Sie schlug auch vor, dass es richtig sei, zu dem Schluss zu kommen, dass ein Mangel an Regulierung die Benutzer anfälliger für „die Launen des Geschäftsmodells der Plattform“ mache.
In dem Bericht appellieren die Autoren direkt an den Gesetzgeber, Einstellungen und Richtlinien zu implementieren, die „den größten Schutz für das Wohlbefinden und die Privatsphäre junger Menschen“ bieten.
Die Ergebnisse des Berichts werden wahrscheinlich die Forderungen an Gesetzgeber außerhalb Europas verstärken, ihre Bemühungen zur Verabschiedung von Gesetzen zum Schutz von Kindern im digitalen Zeitalter zu verstärken – und das Risiko zu vermeiden, dass Plattformen ihr diskriminierendstes und räuberischstes Verhalten auf Minderjährige konzentrieren, die in Märkten leben, die nicht legal sind prüft standardmäßig auf ‚Datafizierung‘.
In den letzten Monaten haben Gesetzgeber in Kalifornien versucht, ein Gesetz zu verabschieden Altersgerechter Designcode im britischen Stil. Während Anfang dieses Jahres eine Reihe von US-Senatoren einen Kids Online Safety Act vorschlugen, da das Thema Online-Sicherheit von Kindern mehr Aufmerksamkeit erregt hat – obwohl die Verabschiedung von Datenschutzgesetzen auf Bundesebene in den USA weiterhin eine große Herausforderung darstellt.
In einer unterstützenden Erklärung bemerkte Rys Farthing, Autor des Berichts und Forscher bei Fairplay: „Es ist beunruhigend zu glauben, dass diese Unternehmen auswählen und auswählen, welchen jungen Menschen sie die beste Sicherheit und den besten Datenschutz bieten. Es ist vernünftig zu erwarten, dass ein Unternehmen, sobald es herausgefunden hat, wie es seine Produkte für Kinder ein wenig besser machen kann, dies universell für alle jungen Menschen einführt. Aber wieder einmal lassen uns Social-Media-Unternehmen im Stich und bauen weiterhin unnötige Risiken in ihre Plattformen ein. Der Gesetzgeber muss eingreifen und Vorschriften erlassen, die Anbieter digitaler Dienste verpflichten, ihre Produkte jugendgerecht zu gestalten.“
„Viele Gerichtsbarkeiten auf der ganzen Welt untersuchen diese Art von Regulierung“, betonte sie auch in einer Bemerkung zur Veröffentlichung des Berichts. „In Kalifornien könnte der Age Appropriate Design Code, der der Staatsversammlung vorliegt, dafür sorgen, dass einige dieser Risiken für junge Menschen beseitigt werden. Andernfalls können Sie erwarten, dass Social-Media-Unternehmen ihnen Datenschutz und Sicherheit zweiter Klasse bieten.“
Auf die Frage, warum Meta, dem Eigentümer von Instagram und WhatsApp, nicht auch einen kritischen Brief von den Interessengruppen erhält, sagte die Sprecherin von Fairplay, dass seine Forscher TikTok als „bei weitem die schlechteste Plattform“ bezeichneten – daher fühlten sich die Mitunterzeichner „das größte Dringlichkeit“, ihre Fürsprache darauf zu konzentrieren. (Obwohl der Bericht selbst auch Probleme mit den beiden Meta-eigenen Plattformen erörtert.)
„TikTok hat über eine Milliarde aktive Nutzer, und verschiedene globale Schätzungen gehen davon aus, dass zwischen einem Drittel und einem Viertel minderjährig sind. Die Sicherheits- und Datenschutzentscheidungen, die Ihr Unternehmen trifft, können 250 Millionen junge Menschen weltweit betreffen, und diese Entscheidungen müssen sicherstellen, dass die besten Interessen von Kindern und Jugendlichen verwirklicht werden, und zwar gleichermaßen“, schreiben die Interessengruppen in dem Brief.
„Wir fordern Sie dringend auf, einen Safety-by-Design- und Children’s Rights-by-Design-Ansatz zu verfolgen und unverzüglich eine Risikobewertung Ihrer Produkte weltweit durchzuführen, um Datenschutz- und Sicherheitsrisiken auf Ihrer Plattform zu identifizieren und zu beheben. Wenn eine lokale Praxis oder Richtlinie gefunden wird, um die Sicherheit oder Privatsphäre von Kindern zu maximieren, sollte TikTok diese global übernehmen. Alle jüngeren Benutzer von TikTok verdienen den stärksten Schutz und die größte Privatsphäre, nicht nur Kinder aus europäischen Rechtsordnungen, in denen die Regulierungsbehörden frühzeitig Maßnahmen ergriffen haben.“
Auch wenn der europäische Gesetzgeber angesichts des relativ höheren Schutzstandards, den die Forscher von Fairplay für Kinder in der Region gefunden haben, Grund haben könnte, sich ein wenig selbstgefällig zu fühlen, ist das Schlüsselwort relativ: Sogar in Europa – einer Region, die als de facto weltweit führend gilt in Datenschutzstandards – TikTok war in den letzten Jahren mit einer Reihe von Beschwerden über die Sicherheit und den Datenschutz von Kindern konfrontiert; einschließlich Klagen im Stil von Sammelklagen und behördlichen Untersuchungen zum Umgang mit Daten von Kindern.
Die Kindersicherheitskritik an TikTok in der Region hält an – insbesondere im Zusammenhang mit seiner umfassenden Profilerstellung und gezielten Ausrichtung auf Benutzer – und viele der oben genannten rechtlichen Schritte und Untersuchungen dauern an und sind ungelöst, auch wenn neue Bedenken auftauchen.
Erst diese Woche hat beispielsweise die italienische Datenschutzbehörde Alarm geschlagen über eine geplante Änderung der Datenschutzrichtlinie von TikTok, die ihrer Meinung nach nicht mit den bestehenden EU-Datenschutzgesetzen vereinbar ist – und eine formelle Warnung ausgesprochen. Es forderte die Plattform auf, nicht an einem Wechsel festzuhalten, von dem sie sagte, dass es beunruhigende Auswirkungen auf Minderjährige im Dienst haben könnte, denen möglicherweise ungeeignete „personalisierte“ Anzeigen gezeigt werden.
Bereits im Jahr 2021 intervenierte die italienische Behörde auch, nachdem Bedenken hinsichtlich der Sicherheit von Kindern mit einer TikTok-Herausforderung in Verbindung gebracht worden waren – sie befahl dem Unternehmen, Benutzer zu sperren, deren Alter nicht überprüft werden konnte. TikTok fuhr fort, über eine halbe Million Konten im Land zu entfernen, von denen es nicht bestätigen konnte, dass sie nicht mindestens 13 Jahre alt waren.