Meta wird Nacktheit in Instagram-DMs im Rahmen der neuesten Sicherheitsmaßnahme für Teenager automatisch unkenntlich machen

Meta hat angekündigt, neue Funktionen auf Instagram zu testen, die dazu beitragen sollen, junge Menschen vor unerwünschter Nacktheit oder Sextortion-Betrug zu schützen. Dazu gehört eine Funktion namens Nacktheitsschutz in DMs, die Bilder, bei denen Nacktheit erkannt wird, automatisch unkenntlich macht.

Der Technologieriese wird Jugendliche auch dazu anregen, sich selbst zu schützen, indem er sie mit einer Warnung dazu anregt, zweimal darüber nachzudenken, intime Bilder zu teilen. Meta hofft, dadurch den Schutz vor Betrügern zu erhöhen, die möglicherweise Nacktbilder senden, um Menschen dazu zu bringen, im Gegenzug ihre eigenen Bilder zu senden.

Es ist auch Es wird vorgeschlagen, Änderungen vorzunehmen Machen Sie es potenziellen Betrügern und Kriminellen schwerer, Jugendliche zu finden und mit ihnen zu interagieren. Meta sagt, dass es eine neue Technologie entwickelt, um Konten zu identifizieren, die „potenziell“ in Sextortion-Betrügereien verwickelt sind, und einige Beschränkungen für die Interaktion dieser verdächtigen Konten mit anderen Benutzern anwendet.

In einem weiteren am Donnerstag angekündigten Schritt sagte Meta, dass es die Daten, die es mit dem plattformübergreifenden Online-Kindersicherheitsprogramm Lantern teilt, erweitert hat – um mehr „Sextortion-spezifische Signale“ aufzunehmen.

Der Social-Networking-Riese verbietet seit langem das Versenden unerwünschter Aktfotos oder versucht, andere Benutzer zum Versenden intimer Bilder zu zwingen. Das hindert diese Probleme jedoch nicht daran, online weit verbreitet zu sein – und für Dutzende von Teenagern und jungen Menschen Leid zu verursachen, manchmal sogar mit äußerst tragische Ergebnisse.

Nachfolgend haben wir die neuesten Änderungen ausführlicher zusammengefasst.

Nacktheitsbildschirme

Der Nacktheitsschutz in DMs zielt darauf ab, jugendliche Instagram-Nutzer vor Cyberflashing zu schützen, indem Nacktbilder hinter einem Sicherheitsschirm platziert werden. Benutzer können dann wählen, ob sie es anzeigen möchten oder nicht.

„Wir zeigen ihnen auch eine Nachricht, die sie dazu auffordert, sich nicht unter Druck gesetzt zu fühlen, zu antworten, mit der Option, den Absender zu blockieren und den Chat zu melden“, sagte Meta.

Der Nacktheits-Sicherheitsbildschirm wird weltweit standardmäßig für unter 18-Jährige aktiviert. Ältere Benutzer sehen eine Benachrichtigung, die sie dazu auffordert, die Funktion zu aktivieren.

„Wenn der Nacktheitsschutz aktiviert ist, sehen Personen, die Bilder mit Nacktheit senden, eine Nachricht, die sie daran erinnert, beim Senden sensibler Fotos vorsichtig zu sein und dass sie diese Fotos zurückziehen können, wenn sie ihre Meinung geändert haben“, heißt es weiter.

Jeder, der versucht, ein Nacktbild weiterzuleiten, wird mit derselben Warnung zum Umdenken aufgefordert.

Die Funktion basiert auf maschinellem Lernen auf dem Gerät, sodass Meta sagte, dass sie in Ende-zu-Ende-verschlüsselten Chats funktioniert, da die Bildanalyse auf dem eigenen Gerät des Benutzers durchgeführt wird.

Sicherheitstipps

Als weitere Schutzmaßnahme werden Instagram-Nutzer, die Nacktfotos senden oder empfangen, auf Sicherheitstipps verwiesen – mit Informationen über die damit verbundenen potenziellen Risiken –, die laut Meta unter Anleitung von Experten entwickelt wurden.

„Diese Tipps enthalten Erinnerungen daran, dass Personen ohne Ihr Wissen Screenshots machen oder Bilder weiterleiten können, dass sich Ihre Beziehung zu der Person in Zukunft ändern kann und dass Sie Profile sorgfältig prüfen sollten, falls sie nicht die sind, für die sie sich ausgeben“, heißt es darin . „Sie verlinken auch auf eine Reihe von Ressourcen, darunter Metas Sicherheitszentrum, Support-Hotlines, StopNCII.org für Personen über 18 Jahren und Nimm es runter für Personen unter 18 Jahren.

Außerdem werden Popup-Nachrichten für Personen getestet, die möglicherweise mit einem Konto interagiert haben, das Meta wegen Sextortion entfernt hat, wodurch sie auch auf relevante Expertenressourcen weitergeleitet werden.

„Außerdem fügen wir unseren In-App-Meldeflüssen neue Kindersicherheits-Hotlines aus der ganzen Welt hinzu. Das heißt, wenn Jugendliche relevante Probleme melden – wie Nacktheit, Drohungen mit der Weitergabe privater Bilder oder sexuelle Ausbeutung oder Werbung –, leiten wir sie an örtliche Kindersicherheits-Hotlines weiter, sofern verfügbar“, fügte sie hinzu.

Technologie zur Erkennung von Sextortionisten

Während Meta sagt, dass es die Konten von Sextortionisten löscht, wenn es auf sie aufmerksam wird, muss es zunächst die Bösewichte ausfindig machen, um sie auszuschalten. Deshalb versucht Meta, noch weiter zu gehen: Es heißt, dass es „Technologie entwickelt, um zu erkennen, wo sich Konten befinden könnten.“ möglicherweise sich an Sextortion-Betrügereien beteiligen, die auf einer Reihe von Signalen basieren, die auf Sextortion-Verhalten hinweisen könnten.“

„Obwohl diese Signale nicht unbedingt ein Beweis dafür sind, dass ein Konto gegen unsere Regeln verstoßen hat, ergreifen wir Vorsichtsmaßnahmen, um zu verhindern, dass diese Konten Teenager-Konten finden und mit ihnen interagieren“, heißt es weiter und fügt hinzu: „Dies baut auf dem auf Arbeit, die wir bereits leisten um zu verhindern, dass andere potenziell verdächtige Konten Jugendliche finden und mit ihnen interagieren.“

Es ist nicht genau klar, welche Technologie Meta dafür verwendet und welche Signale auf einen potenziellen Sextortionisten hinweisen könnten (wir haben um mehr gebeten) – aber vermutlich werden Kommunikationsmuster analysiert, um zu versuchen, schlechte Akteure zu erkennen.

Konten, die von Meta als potenzielle Sextortionisten gekennzeichnet werden, unterliegen Einschränkungen hinsichtlich der Art und Weise, wie sie anderen Benutzern Nachrichten senden oder mit ihnen interagieren können.

„[A]„Alle Nachrichtenanfragen, die potenzielle Sextortion-Konten zu senden versuchen, landen direkt im versteckten Anfrageordner des Empfängers, was bedeutet, dass er nicht über die Nachricht benachrichtigt wird und sie nie sehen muss“, heißt es darin.

Bei Benutzern, die bereits mit potenziellen Betrugs- oder Sextortion-Konten chatten, werden die Chats nicht geschlossen, sondern angezeigt Sicherheitshinweise „Ermutigen Sie sie, alle Drohungen zu melden, um ihre privaten Bilder zu teilen, und erinnern Sie sie daran, dass sie zu allem Nein sagen können, was ihnen ein Unbehagen bereitet“, so Meta.

Teenager-Benutzer sind bereits davor geschützt, Direktnachrichten von Erwachsenen zu erhalten, mit denen sie auf Instagram nicht verbunden sind (und in manchen Fällen auch von anderen Teenagern). Aber Meta geht noch einen Schritt weiter und zeigt potenziellen Sextortion-Konten die Schaltfläche „Nachricht“ im Profil eines Teenagers nicht an, selbst wenn diese verknüpft sind.

„Wir testen auch, wie wir Teenager aus diesen Konten in den Follower-, Follower- und Like-Listen der Leute ausblenden und es für sie schwieriger machen, Teenager-Konten in den Suchergebnissen zu finden“, heißt es weiter.

Es ist erwähnenswert, dass das Unternehmen in Europa wegen der Risiken für die Sicherheit von Kindern auf Instagram zunehmend unter Beobachtung steht. Seit Inkrafttreten des Digital Services Act (DSA) des Blocks im vergangenen Sommer stellen die Strafverfolgungsbehörden Fragen zu seinem Vorgehen.

Ein langes, langsames Kriechen in Richtung Sicherheit

Meta hat bereits Maßnahmen zur Bekämpfung von Sextortion angekündigt – zuletzt im Februar, als es den Zugang zu Take It Down erweiterte.

Mit dem Tool eines Drittanbieters können Menschen einen Hash eines intimen Bildes lokal auf ihrem eigenen Gerät erstellen und ihn mit dem National Center for Missing and Exploited Children teilen. Dadurch entsteht ein Repository nicht einvernehmlicher Bild-Hashes, mit dem Unternehmen nach Rache suchen und diese beseitigen können Porno.

Frühere Ansätze von Meta waren kritisiert worden, da sie von jungen Menschen verlangten, ihre Aktfotos hochzuladen. In Ermangelung strenger Gesetze, die regeln, wie soziale Netzwerke Kinder schützen müssen, war Meta jahrelang sich selbst überlassen – mit lückenhaften Ergebnissen.

Da jedoch in den letzten Jahren einige Anforderungen auf Plattformen gelandet sind, wie zum Beispiel der britische Kinderkodex, der 2021 in Kraft trat, und in jüngerer Zeit der DSA der EU, müssen Technologiegiganten wie Meta dem Schutz Minderjähriger endlich mehr Aufmerksamkeit schenken.

Beispielsweise hat Meta im Juli 2021 kurz vor Ablauf der britischen Compliance-Frist dazu übergegangen, die Instagram-Konten junger Menschen standardmäßig auf „privat“ zu setzen. Im November 2022 folgten noch strengere Datenschutzeinstellungen für Jugendliche auf Instagram und Facebook.

Im Januar dieses Jahres kündigte Meta außerdem an, dass Teenagern auf Facebook und Instagram strengere Nachrichteneinstellungen zugewiesen werden sollen, allerdings mit Beschränkungen für die Nachrichtenübermittlung von Teenagern an Teenager, mit denen sie noch nicht verbunden sind, kurz bevor im Februar die vollständige Compliance-Frist für den DSA in Kraft tritt.

Die langsame und iterative Erweiterung der Funktionen von Meta bei den Schutzmaßnahmen für junge Benutzer wirft die Frage auf, warum es so lange gedauert hat, strengere Schutzmaßnahmen anzuwenden – was darauf hindeutet, dass Meta sich für ein zynisches Minimum an Schutzmaßnahmen entschieden hat, um die Auswirkungen auf die Nutzung zu bewältigen und dem Engagement Vorrang einzuräumen Sicherheit. (Genau das hat Meta-Whistleblower Francis Haugen wiederholt ihrem früheren Arbeitgeber vorgeworfen.)

Auf die Frage, warum es nicht auch die neuesten angekündigten Schutzmaßnahmen für Instagram-Nutzer auf Facebook ausweitet, sagte eine Sprecherin von Meta gegenüber Tech: „Wir wollen dort reagieren, wo wir den größten Bedarf und die größte Relevanz sehen – nämlich, wenn es um unerwünschte Nacktheit und Aufklärung geht.“ Jugendliche über die Risiken des Teilens sensibler Bilder – wir glauben, dass es sich um Instagram-DMs handelt, deshalb konzentrieren wir uns zuerst darauf.“

tch-1-tech