Kinderpornohändler verwenden Codes wie „Käsepizza“ und nutzen die Funktionen der Meta-Plattform aus, sagen Forscher
Käufer und Verkäufer von minderjährigen Sexinhalten haben dank der Erkennungsalgorithmen in Instagram, der Foto-Sharing-Plattform des Silicon-Valley-Riesen Meta, ein florierendes Netzwerk aufgebaut, berichtete das Wall Street Journal am Mittwoch.„Instagram verbindet Pädophile und führt sie über Empfehlungssysteme zu Content-Verkäufern, die hervorragend darin sind, diejenigen zu verknüpfen, die Nischeninteressen teilen“, heißt es im Journal gemeldetbasierend auf Untersuchungen, die gemeinsam mit der Stanford University und der University of Massachusetts Amherst durchgeführt wurden.Sexualisierte Konten auf der Plattform geben ihre Interessen „unverschämt“ preis, posten illegale Materialien jedoch nicht offen und bieten stattdessen „Menüs“ mit Inhalten an, so die Forscher. Sie verwenden auch bestimmte Emojis als Code, in denen eine Karte für „von Minderjährigen angezogene Person“ steht – ein Euphemismus für Pädophile – und Käsepizza eine Kurzform für „Kinderpornografie“ ist, sagte Brian Levine, Direktor des UMass Rescue Lab in Amherst. Viele Nutzer bezeichnen sich selbst als „Liebhaber der kleinen Dinge im Leben“, sagte er. Selbst ein vorübergehender Kontakt mit einem pädophilen Konto kann den Algorithmus von Instagram dazu veranlassen, es anderen Benutzern zu empfehlen. Ein vom Journal zitiertes Beispiel betrifft Sarah Adams, eine kanadische Mutter, die gegen die Ausbeutung von Kindern kämpft. Im Februar schickte ihr einer ihrer Follower eine Nachricht mit einem Account, der „Inzest-Kleinkinder“ bewarb, und Adams schaute sich das Profil kurz an, um es als unangemessen zu melden. In den nächsten Tagen, sagte Adams, erhielt sie Nachrichten von entsetzten Eltern, die ihr Profil besuchten, nur um Empfehlungen zu erhalten, sich das pädophile Profil anzusehen.„Das Problem von Instagram liegt in den Inhaltserkennungsfunktionen, in der Art und Weise, wie Themen empfohlen werden und inwieweit die Plattform auf Suche und Verknüpfungen zwischen Konten angewiesen ist“, sagte David Thiel, Cheftechnologe am Stanford Internet Observatory, der zuvor bei Meta arbeitete, gegenüber dem Journal.
Forscher sagten, dass die Plattform auch Suchvorgänge zulässt, bei denen Meta anerkennt, dass sie illegal sind. Benutzer erhalten ein Popup, das sie darauf hinweist, dass der Inhalt möglicherweise „sexuellen Kindesmissbrauch“ enthält, und ihnen zwei Optionen bietet: „Ressourcen anfordern“ und „Ergebnisse trotzdem anzeigen“. Das National Center for Missing & Exploited Children, eine gemeinnützige Organisation, die mit US-Strafverfolgungsbehörden zusammenarbeitet, erhielt im Jahr 2022 31,9 Millionen Meldungen über Kinderpornografie. 85 % der Meldungen gingen auf Meta-eigene Plattformen ein, wobei etwa fünf Millionen allein von Instagram stammten.Stanford-Forscher fanden auch einige Kindersex-Konten auf Twitter, aber weniger als ein Drittel als auf Instagram, das eine weitaus größere Nutzerbasis hat, die auf schätzungsweise 1,3 Milliarden geschätzt wird. Twitter empfahl solche Konten auch nicht so sehr und entfernte sie viel schneller.„Kinderausbeutung ist ein schreckliches Verbrechen“, sagte ein Meta-Sprecher dem Journal, als das Unternehmen wegen der Ergebnisse kontaktiert wurde. Das Unternehmen von Mark Zuckerberg räumte ein, dass es „Probleme bei seinen Durchsetzungsmaßnahmen“ habe und sagte, es habe eine interne Task Force eingerichtet, um die Situation anzugehen.Meta versucht aktiv, Kinderpornografie zu entfernen, indem es allein im Januar 490.000 Konten sperrte und in den letzten zwei Jahren 27 pädophile Netzwerke lahmlegte. Das Unternehmen sagte außerdem, dass es seit Erhalt der Anfrage des Journals hart gegen sexualisierte Hashtags vorgegangen sei und sein Empfehlungssystem angepasst habe.
Forscher sagten, dass die Plattform auch Suchvorgänge zulässt, bei denen Meta anerkennt, dass sie illegal sind. Benutzer erhalten ein Popup, das sie darauf hinweist, dass der Inhalt möglicherweise „sexuellen Kindesmissbrauch“ enthält, und ihnen zwei Optionen bietet: „Ressourcen anfordern“ und „Ergebnisse trotzdem anzeigen“. Das National Center for Missing & Exploited Children, eine gemeinnützige Organisation, die mit US-Strafverfolgungsbehörden zusammenarbeitet, erhielt im Jahr 2022 31,9 Millionen Meldungen über Kinderpornografie. 85 % der Meldungen gingen auf Meta-eigene Plattformen ein, wobei etwa fünf Millionen allein von Instagram stammten.Stanford-Forscher fanden auch einige Kindersex-Konten auf Twitter, aber weniger als ein Drittel als auf Instagram, das eine weitaus größere Nutzerbasis hat, die auf schätzungsweise 1,3 Milliarden geschätzt wird. Twitter empfahl solche Konten auch nicht so sehr und entfernte sie viel schneller.„Kinderausbeutung ist ein schreckliches Verbrechen“, sagte ein Meta-Sprecher dem Journal, als das Unternehmen wegen der Ergebnisse kontaktiert wurde. Das Unternehmen von Mark Zuckerberg räumte ein, dass es „Probleme bei seinen Durchsetzungsmaßnahmen“ habe und sagte, es habe eine interne Task Force eingerichtet, um die Situation anzugehen.Meta versucht aktiv, Kinderpornografie zu entfernen, indem es allein im Januar 490.000 Konten sperrte und in den letzten zwei Jahren 27 pädophile Netzwerke lahmlegte. Das Unternehmen sagte außerdem, dass es seit Erhalt der Anfrage des Journals hart gegen sexualisierte Hashtags vorgegangen sei und sein Empfehlungssystem angepasst habe.