Interne Meta-Dokumente zur Kindersicherheit wurden im Rahmen einer Klage des Justizministeriums von New Mexico sowohl gegen Meta als auch gegen seinen CEO Mark Zuckerberg entsiegelt. Aus den Dokumenten geht hervor, dass Meta seine Messaging-Plattformen nicht nur absichtlich an Kinder vermarktete, sondern auch wusste, dass in großem Umfang unangemessene und sexuell eindeutige Inhalte zwischen Erwachsenen und Minderjährigen geteilt werden.
Die Dokumente, die am Mittwoch im Rahmen einer geänderten Klageschrift entsiegelt wurden, heben mehrere Fälle hervor, in denen Meta-Mitarbeiter intern Bedenken hinsichtlich der Ausbeutung von Kindern und Jugendlichen auf den privaten Messaging-Plattformen des Unternehmens geäußert haben. Meta erkannte die Risiken, die Messenger- und Instagram-Direktnachrichten für minderjährige Benutzer darstellten, versäumte jedoch, der Umsetzung von Schutzmaßnahmen Priorität einzuräumen, oder blockierte die Kindersicherheitsfunktionen gänzlich, weil sie nicht rentabel waren.
In einer Erklärung gegenüber Tech sagte der Generalstaatsanwalt von New Mexico, Raúl Torrez, dass Meta und Zuckerberg es Kinderräubern ermöglicht hätten, Kinder sexuell auszubeuten. Er äußerte kürzlich Bedenken darüber, dass Meta einen Ende-zu-Ende-Verschlüsselungsschutz für Messenger ermöglicht begann letzten Monat mit der Einführung. In einer separaten Akte wies Torrez darauf hin, dass Meta es versäumt habe, die Ausbeutung von Kindern auf seiner Plattform zu bekämpfen, und dass Verschlüsselung ohne angemessene Sicherheitsvorkehrungen Minderjährige noch weiter gefährden würde.
„Meta-Mitarbeiter haben jahrelang versucht, Alarm zu schlagen, weil Entscheidungen von Meta-Führungskräften Kinder gefährlicher Werbung und Kindesausbeutung aussetzen“, fuhr Torrez fort. „Meta-Führungskräfte, darunter auch Herr Zuckerberg, haben konsequent Entscheidungen getroffen, bei denen Wachstum wichtiger ist als die Sicherheit von Kindern. Während das Unternehmen die illegalen und schädlichen Aktivitäten, denen Kinder auf seinen Plattformen ausgesetzt sind, weiterhin herunterspielt, zeigen die internen Daten und Präsentationen von Meta, dass das Problem schwerwiegend und allgegenwärtig ist.“
In der ursprünglich im Dezember eingereichten Klage wird behauptet, Meta-Plattformen wie Instagram und Facebook seien „zu einem Marktplatz für Raubtiere auf der Suche nach Kindern geworden, denen sie zum Opfer fallen könnten“, und Meta habe es danach versäumt, viele Fälle von Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) zu entfernen wurden auf Instagram und Facebook gemeldet. Bei der Erstellung von Täuschungskonten, die vorgaben, 14-Jährige oder jünger zu sein, sagte das Justizministerium von New Mexico, Metas Algorithmen hätten CSAM sowie Konten entdeckt, die den Kauf und Verkauf von CSAM ermöglichten. Laut a Pressemitteilung In Bezug auf die Klage heißt es: „Bestimmte Inhalte, die Kinder ausbeuten, sind auf Facebook und Instagram mehr als zehnmal häufiger verbreitet als auf Pornhub und OnlyFans.“
Aus den unversiegelten Dokumenten geht hervor, dass Meta gezielt versucht hat, Kinder und Jugendliche für den Messenger zu gewinnen und dabei die Sicherheitsfunktionen einschränkte. In einer Präsentation aus dem Jahr 2016 wurden beispielsweise Bedenken hinsichtlich der schwindenden Beliebtheit des Unternehmens bei Teenagern geäußert, die mehr Zeit auf Snapchat und YouTube als auf Facebook verbringen, und ein Plan zur „Gewinnung“ neuer jugendlicher Nutzer skizziert. In einer internen E-Mail aus dem Jahr 2017 heißt es, dass ein Facebook-Manager es ablehnte, Messenger auf „schädliche Inhalte“ zu scannen, weil dies einen „Wettbewerbsnachteil gegenüber anderen Apps, die möglicherweise mehr Privatsphäre bieten könnten“, darstellen würde.
Die Tatsache, dass Meta wusste, dass seine Dienste bei Kindern so beliebt waren, macht das Versäumnis, junge Nutzer vor sexueller Ausbeutung zu schützen, „umso ungeheuerlicher“, heißt es in den Dokumenten. In einer Präsentation aus dem Jahr 2020 heißt es, dass das „Endziel“ des Unternehmens darin bestand, „bis 2022 die wichtigste Kinder-Messaging-App in den USA zu werden“. Es wurde auch auf die Beliebtheit von Messenger bei 6- bis 10-Jährigen hingewiesen.
Besonders vernichtend ist Metas Eingeständnis der Kindersicherheitsprobleme auf seiner Plattform. In einer internen Präsentation aus dem Jahr 2021 wurde beispielsweise geschätzt, dass täglich 100.000 Kinder auf den Messaging-Plattformen von Meta sexuell belästigt werden und sexuell eindeutige Inhalte wie Fotos von Genitalien von Erwachsenen erhalten. Im Jahr 2020 machten sich Meta-Mitarbeiter Sorgen über die mögliche Entfernung der Plattform aus dem App Store, nachdem sich ein Apple-Manager darüber beschwert hatte, dass ihr 12-Jähriger auf Instagram angeworben wurde.
„Das ist die Art von Dingen, die Apple verärgert“, hieß es in einem internen Dokument. Mitarbeiter stellten auch die Frage, ob Meta einen Zeitplan habe, um zu verhindern, dass „Erwachsene Nachrichten an Minderjährige auf IG Direct senden“.
Ein weiteres internes Dokument aus dem Jahr 2020 enthüllte, dass die auf Facebook implementierten Sicherheitsvorkehrungen, wie etwa die Verhinderung, dass „unverbundene“ Erwachsene Nachrichten an Minderjährige senden, auf Instagram nicht existierten. Die Implementierung derselben Sicherheitsmaßnahmen auf Instagram habe „keine Priorität“ gehabt. Ein Meta-Mitarbeiter kritisierte in den Kommentaren des Dokuments das Fehlen von Sicherheitsvorkehrungen und schrieb, dass es eine „große Wachstumswette“ sei, erwachsenen Verwandten zu ermöglichen, Kinder über Instagram Direct zu erreichen. Der Mitarbeiter stellte außerdem fest, dass das Grooming auf Instagram doppelt so häufig vorkommt wie auf Facebook.
Meta ging im März 2021 in einer anderen Präsentation zum Thema Kindersicherheit auf das Thema Grooming ein und erklärte, dass die „Messung, Erkennung und Schutzmaßnahmen“ auf Facebook und Messenger „ausgereifter“ seien als auf Instagram. In der Präsentation wurde festgestellt, dass Meta „zu wenig in die geringfügige Sexualisierung auf IG investiert“ sei, insbesondere in sexuellen Kommentaren zu Beiträgen minderjähriger YouTuber, und beschrieb das Problem als „furchtbare Erfahrung für YouTuber und Umstehende“.
Meta steht seit langem in der Kritik, weil es CSAM nicht angemessen moderiert. Große Social-Media-Plattformen mit Sitz in den USA sind gesetzlich verpflichtet, Fälle von CSAM an die CyberTipline des National Center for Missing & Exploited Children (NCMEC) zu melden. Laut NCMEC zuletzt veröffentlichte Daten Ab 2022 reichte Facebook etwa 21 Millionen CSAM-Meldungen ein, was etwa 66 % aller Meldungen ausmacht, die in diesem Jahr an die CyberTipline gesendet wurden. Wenn man die Meldungen von Instagram (5 Millionen) und WhatsApp (1 Million) mit einbezieht, sind Meta-Plattformen für etwa 85 % aller Meldungen an NCMEC verantwortlich.
Diese überproportionale Zahl könnte durch die überwältigend große Nutzerbasis von Meta erklärt werden, die über 3 Milliarden täglich aktive Benutzer, aber als Reaktion auf viele Recherchen, internationale Führungspersönlichkeiten haben argumentiert, dass Meta nicht genug unternimmt, um diese Millionen von Berichten einzudämmen. Im Juni teilte Meta dem mit Wallstreet Journal dass in den letzten zwei Jahren 27 Netzwerke von Pädophilen ausgeschaltet wurden, die Forscher dennoch zahlreiche miteinander verbundene Konten aufdecken konnten, die CSAM kaufen, verkaufen und vertreiben. In den fünf Monaten nach dem Bericht des Journals stellte sich heraus, dass die Empfehlungsalgorithmen von Meta weiterhin CSAM dienten; Obwohl Meta bestimmte Hashtags entfernte, tauchten an ihrer Stelle andere pädophile Hashtags auf.
Inzwischen steht Meta vor der Tür eine weitere Klage von 42 Generalstaatsanwälten der US-Bundesstaaten über die Auswirkungen der Plattformen auf die psychische Gesundheit von Kindern.
„Wir sehen, dass Meta weiß, dass seine Social-Media-Plattformen von Millionen von Kindern unter 13 Jahren genutzt werden und dass sie ihre persönlichen Daten unrechtmäßig sammeln“, sagte der kalifornische Generalstaatsanwalt Rob Bonta sagte Tech im November. „Es zeigt die gängige Praxis, dass Meta in seinen öffentlichen Kommentaren gegenüber dem Kongress und anderen Regulierungsbehörden etwas sagt, während es intern etwas anderes sagt.“