Nach einem Mobbing Teenager starb durch Suizideine trauernde Mutter im vergangenen Jahr verklagt die Plattform, auf der der Missbrauch stattgefunden hatte – Snapchat – weil sie nicht genug getan hatte, um ihre jüngeren Nutzer zu schützen. Andere Klageverbunden zu einem weiteren Suizid, folgte letzten Monat. Als Antwort auf ersteres, Snap verboten die anonymen Messaging-Apps, die Online-Mobbing erleichtert und versprochen hatten, ihre Richtlinien zu überarbeiten, um anzugehen, welche Art von Snapchat-verbundenen Erfahrungen mit ihren Entwicklertools erstellt werden könnten. Heute gab das Unternehmen die Ergebnisse seiner Richtlinienüberprüfung und die vorgenommenen Änderungen bekannt.
Mit sofortiger Wirkung verbietet Snap für neue Entwickler, die auf seiner Snap Kit-Plattform aufbauen, anonyme Messaging-Apps und verlangt von jedem, der Apps zum Finden von Freunden entwickelt, diese Apps auf Benutzer ab 18 Jahren zu beschränken. Bestehende Entwickler erhalten 30 Tage Zeit, um die neuen Richtlinien einzuhalten.
Diese Änderungen sind auf Apps von Drittanbietern beschränkt, die in Snapchat integriert sind, und sollen keine anderen Sicherheitsprobleme für Kinder auf der Plattform von Snap angehen.
Snap sagt, dass die Richtlinienaktualisierung eine kleine Teilmenge ihrer Community von über 1.500 Entwicklern betreffen wird. Nur etwa 2 % der Entwickler werden vom Verbot anonymer Messaging-Apps betroffen sein, während weitere 3 % von der neuen Anforderung zur Altersbeschränkung ihrer Apps betroffen sein werden. Das Unternehmen stellte außerdem fest, dass Entwickler, die anonyme Nachrichten aus ihren Apps entfernen, ihre Apps erneut überprüfen lassen und Snap Kit-Partner bleiben können.
Eine App, die stark davon profitiert hat früheres Verbot Bei den anonymen Messaging-Apps YOLO und LMK gehört Sendit zu denen, die Änderungen vornehmen müssen, um weiterhin mit Snapchat zu arbeiten. Innerhalb weniger Monate nach den Verboten hatte Sendit Millionen weiterer Downloads von Teenagern erhalten, die immer noch nach einer Möglichkeit suchten, anonyme Fragen und Antworten zu posten.
Die Anziehungskraft anonymer Social Apps ist unbestreitbar, insbesondere für junge Menschen. Aber im Laufe der Jahre hat sich immer wieder gezeigt, dass solche Apps nicht verantwortungsvoll genutzt werden können – sondern verheerende Folgen haben können. Von dem frühen MySpace-Tagen von den Teenager-Selbstmorden, die mit Ask.fm in Verbindung gebracht werden, bis hin zu den leider gut finanzierten anonymen Apps wie Secret und Yik Yak (von denen keines von Dauer war), wurde die Anonymität in den Händen junger Menschen getestet und ist durchweg gescheitert. In Anbetracht dieser Geschichte war es wohl unverantwortlich, diese Art von Aktivität auf Snapchat überhaupt zuzulassen, angesichts der Kerndemographie von Teenagern und jungen Erwachsenen.
Zusätzlich zum Verbot anonymer Nachrichten wird Snap nun auch Apps zum Finden von Freunden auf erwachsene Benutzer ab 18 Jahren beschränken.
Friend-Finding-Apps sollen Benutzer mit Fremden auf Snapchat verbinden, können Leute dazu ermutigen teilen ihre persönlichen Datenund sind ein gemeinsam Allee für Kinderräuber, um jünger zu erreichen, gefährdete Snapchat-Benutzer. Oft werden die Apps für Dating-Zwecke oder Sexting verwendet, nicht „Freund-finden“ und kann sein gefüllt mit Porno-Bots. Zum Jahre, Gesetz Durchsetzung Beamte und Kindersicherheitsexperten haben vor Kinderschändern auf Snapchat und gewarnt synchronisiert Freunde-Suchen-Apps wie „Zunder für Teenager.“
Die Probleme mit diesen Apps bestehen auch heute noch. Eine im letzten Monat von The Times veröffentlichte Untersuchung zum Beispiel detailliert den grassierenden sexuellen Missbrauch und Rassismus, der dort stattfindet eine dieser Apps, Yubo.
Das anonyme Messaging-Verbot und die Beschränkungen für Apps zum Finden von Freunden sind die einzigen zwei großen Änderungen, die heute an Snaps Richtlinien vorgenommen werden, aber das Unternehmen stellt fest, dass die Apps von Entwicklern immer noch einen Überprüfungsprozess durchlaufen müssen, bei dem sie Fragen zu ihrer Verwendung beantworten müssen Fällen und demonstrieren Sie ihre vorgeschlagenen Integrationen. Snap sagte auch, dass es alle sechs Monate regelmäßige Überprüfungen durchführen wird, um sicherzustellen, dass sich die Funktionalität der Apps nicht in einer Weise geändert hat, die gegen seine Richtlinien verstoßen würde. Jeder Entwickler, der absichtlich versucht, Snap zu täuschen, wird von Snap Kit und der Entwicklerplattform insgesamt entfernt, fügte es hinzu.
„Als Plattform, die mit einer breiten Palette von Entwicklern zusammenarbeitet, möchten wir ein Ökosystem fördern, das Apps hilft, die Sicherheit, Privatsphäre und das Wohlbefinden der Benutzer zu schützen, während Produktinnovationen für Entwickler freigeschaltet und ihnen geholfen werden, ihr Geschäft auszubauen“, sagte ein Sprecher von Snap Verweis auf die Richtlinienaktualisierungen. „Wir glauben, dass wir beides tun können, und werden unsere Richtlinien weiterhin regelmäßig bewerten, die Einhaltung der App überwachen und mit Entwicklern zusammenarbeiten, um das Wohlergehen unserer Community besser zu schützen.“
An der Plattformsicherheit von Snap muss noch gearbeitet werden
Während sich die Änderungen auf Apps von Drittanbietern auswirken, die sich in Snapchat integrieren, muss das Unternehmen noch Probleme mit der Kindersicherheit auf seiner Plattform durch so etwas wie eine altersabhängige Erfahrung für Minderjährige, ähnlich wie TikTok, oder durch die Einführung seiner versprochenen Kindersicherung, die Instagram, angehen und TikTok haben jetzt.
Das Unternehmen, dessen App mit 13+ bewertet ist, hat jedoch die Sichtbarkeit und Auffindbarkeit der Profile von Minderjährigen eingeschränkt, stellt Tools und Erinnerungen bereit, um Ihre Freundesliste zu pflegen, verlangt gegenseitige Freundschaft vor dem Versenden von Nachrichten (wenn Sie unter 18 Jahre alt sind) und stellt Links zu Sicherheitsressourcen bereit , wie Linien für psychische Gesundheit.
Trotz dieser Bemühungen gehen den heutigen Änderungen noch viel mehr Arbeit voraus, die in Bezug auf die Kindersicherheit zu tun sind.
Die Sicherheit von Plattformen steht für Social-Media-Unternehmen branchenweit bereits an erster Stelle, da der regulatorische Druck zunimmt. In seinem Fall wurde Snap letzten Herbst vor den Kongress geschleppt, um die Fragen des Gesetzgebers zu verschiedenen Sicherheitsproblemen zu beantworten, die Minderjährige und junge Erwachsene betreffen, die seine App verwenden, einschließlich der Verbreitung von Inhalten mit Essstörungen und Erwachsenen-orientierten Tarifen, die für die jüngeren Teenager von Snapchat unangemessen sind, aber nicht durch ein Alterstor blockiert.
Auch Snap wurde diesen Januar verklagt neben Meta von einer anderen Familie, die ihr Kind durch Selbstmord verlor, nachdem sie dem Druck erlegen war, sexuell eindeutige Fotos zu senden, die später unter ihren Klassenkameraden durchgesickert waren. Die Beschwerde gibt an, dass Snapchats fehlende Überprüfung des Alters des Kindes und die Verwendung von verschwindenden Nachrichten zu ihrem Tod beigetragen haben. Darüber hinaus erwähnt die Klage, wie anonymes Messaging eine Rolle gespielt hat, obwohl sie nicht direkt auf die Verwendung von anonymen Apps von Drittanbietern verweist.
Im selben Monat, Snap andere Themen angesprochen mit der Empfehlungsfunktion für Freunde, um es Drogendealern zu erschweren, mit Teenagern in der App in Kontakt zu treten. Das Problem war Gegenstand von gewesen eine Untersuchung von NBC News das verband Snapchat mit dem Verkauf von mit Fentanyl versetzten Pillen, die Teenager und junge Erwachsene in über einem Dutzend Bundesstaaten getötet hatten.
Davor das Unternehmen Klagen konfrontiert für seinen „Geschwindigkeitsfilter“, mit dem Benutzer Fotos machen konnten, die zeigten, wie schnell sie fuhren. Der Filter trug zu zahlreichen bei Autounfälle, Verletzungenund sogar Todesfälle über die Jahre. Es wurde später zunächst bei Fahrgeschwindigkeit deaktiviert und dann im Jahr 2021 abgeschaltet. (Snap lehnte es ab, sich zu dieser Angelegenheit zu äußern, da ein Rechtsstreit anhängig ist.)
Jetzt, da der Gesetzgeber endlich versucht, die Wildwest-Tage von Big Tech einzudämmen, in denen Wachstum und Engagement konsequent über die Sicherheit der Benutzer gestellt wurden, hat Snap sich darauf vorbereitet, Änderungen vorzunehmen. Es stellte seinen allerersten Leiter für Plattformsicherheit ein, Jacqueline Beauchere, im September.
Snap-CEO Evan Spiegel sagte im Oktober auch, das Unternehmen entwickle Tools zur Kindersicherung. Diese Tools – die nach dem Start der Kindersicherung auf TikTok und erst diese Woche auf Instagram folgen würden – ermöglichen es Eltern zu sehen, mit wem ihre Teenager in der App sprechen.
Snap hat nicht gesagt, ob die Tools andere Bedenken der Eltern ausräumen – einschließlich einer Möglichkeit für Eltern, den Zugriff des Kindes auf das Senden oder Empfangen von verschwindenden Nachrichten zu deaktivieren, Freundschaftsanfragen einzuschränken oder Genehmigungen zu verlangen, das Kind daran zu hindern, Fotos und andere Medien zu teilen, oder Verstecken Sie die auf Erwachsene ausgerichteten (und oft Clickbait-artigen) Inhalte, die im Entdecken-Bereich der App eine herausragende Rolle spielen.
„Wir möchten dazu beitragen, Eltern und Teenagern Möglichkeiten zu bieten, zusammenzuarbeiten, um ihre Sicherheit und ihr Wohlbefinden online zu gewährleisten – ähnlich wie Eltern ihre Kinder im wirklichen Leben vorbereiten“, sagte ein Snap-Sprecher über die Kindersicherung. „Wir hoffen, dass diese neuen Tools als Gesprächsstarter zwischen Eltern und ihren Teenagern darüber dienen, wie man online sicher ist.“
Das Unternehmen sagte, dass seine erste Suite von Kindersicherungen noch in diesem Jahr auf den Markt kommen soll. Die Änderungen an den Richtlinien für Entwickler sind jetzt live.
Wenn Sie oder jemand, den Sie kennen, mit Depressionen zu kämpfen hat oder Gedanken daran hatte, sich selbst zu verletzen oder sich das Leben zu nehmen, Die nationale Suizidpräventions-Lebensader (1-800-273-8255) bietet rund um die Uhr kostenlose, vertrauliche Unterstützung für Menschen in Not sowie bewährte Verfahren für Fachleute und Ressourcen zur Unterstützung in Präventions- und Krisensituationen.
Korrektur17.03.22 14:45 Uhr ET: Der Geschwindigkeitsfilter von Snapchat wurde zunächst bei Autogeschwindigkeiten deaktiviert, aber bis 2021 nicht vollständig von der Plattform entfernt.