Über 34 Millionen „schlechte Inhalte“ wurden im Dezember von Facebook und Instagram in Indien entfernt: Bericht

Ueber 34 Millionen „schlechte Inhalte wurden im Dezember von Facebook
Facebook-Eltern Meta hat gesagt, dass es im Dezember 34 Millionen schädliche Inhalte in Indien entfernt hat. Von diesen rund 34 Millionen Inhalten sind über 22,54 Millionen Inhalte aktiviert Facebook und über 12,03 Millionen Inhalte sind aktiviert Instagram.
Facebook erhielt 764 Meldungen
Dem Bericht zufolge erhielt Facebook zwischen dem 1. und 31. Dezember 764 Meldungen über den indischen Beschwerdemechanismus. Das Unternehmen sagte, es habe den Nutzern Tools zur Verfügung gestellt, um ihre Probleme in 345 Fällen zu lösen.
Der indische Beschwerdemechanismus umfasst vorab eingerichtete Kanäle zum Melden von Inhalten für bestimmte Verstöße, Abläufe zur Selbstbehebung, bei denen sie ihre Daten herunterladen können, Möglichkeiten, um Probleme mit gehackten Konten anzugehen usw.

Meta veröffentlicht seinen monatlichen Bericht in Übereinstimmung mit den IT-Regeln (Intermediary Guidelines and Digital Media Ethics Code) 2021. Nach den neuen IT-Regeln 2021 müssen große digitale und soziale Medienplattformen mit mehr als 5 Millionen Nutzern monatliche Compliance-Berichte veröffentlichen .
Von den verbleibenden 419 Berichten, bei denen eine spezielle Überprüfung erforderlich war, überprüfte das Unternehmen den Inhalt gemäß seinen Richtlinien. „Wir haben insgesamt 205 Meldungen bearbeitet. Die verbleibenden 214 Meldungen wurden überprüft, aber möglicherweise nicht bearbeitet“, fügte Meta hinzu.

10.820 Berichte auf Instagram
Meta sagte, es habe 10.820 Berichte auf Instagram über den indischen Beschwerdemechanismus erhalten. „Davon haben wir in 2.461 Fällen Tools für Benutzer bereitgestellt, um ihre Probleme zu lösen“, sagte Meta in dem Bericht.
Von den verbleibenden 8.359 Meldungen, bei denen eine spezielle Überprüfung erforderlich war, überprüfte Meta den Inhalt und ergriff Maßnahmen zu insgesamt 2.926 Meldungen.
„Wir messen die Anzahl der Inhalte (wie Posts, Fotos, Videos oder Kommentare), bei denen wir Maßnahmen ergreifen, wenn sie gegen unsere Standards verstoßen. Maßnahmen könnten das Entfernen eines Inhalts von Facebook oder Instagram oder das Abdecken von Fotos oder Videos umfassen einige Zuschauer mit einer Warnung verstören“, sagte Meta in dem Bericht.

WhatsApp ermöglicht es Benutzern jetzt, sich selbst eine Nachricht zu senden: Einfache Schritte, die befolgt werden müssen | WhatsApp-Nachricht selbst

toi-tech