Metadie Muttergesellschaft von Facebook Und Instagramhat seinen Monatsbericht veröffentlicht Compliance Bericht für Indien für den Monat November. Das Unternehmen gab bekannt, dass es im Laufe des Monats über 23 Millionen Inhalte auf beiden Plattformen entfernt hat.
Insbesondere entfernte das Unternehmen 37 Millionen Teile davon schlechter Inhalt im Vormonat, was einem deutlichen Rückgang auf Monatsbasis entspricht. Der Bericht beschreibt auch die Bemühungen zur Inhaltsmoderation in 13 Richtlinien für Facebook und 12 für Instagram.
Außerdem wird Metas Reaktion auf Benutzerberichte hervorgehoben, die über den indischen Beschwerdemechanismus eingegangen sind.
Entfernung von Inhalten auf Facebook
Nach Angaben des Unternehmens wurden über 18,3 Millionen Inhalte von Facebook entfernt. Die Plattform erhielt 21.149 Berichte und stellte Tools zur Lösung von 10.710 Benutzerproblemen bereit.
Fachliche Rezension: Von den verbleibenden 10.739 Meldungen erforderten 4.538 eine spezielle Prüfung und führten zur Entfernung von Inhalten.
Entfernung von Inhalten auf Instagram
Genau wie auf Facebook wurden über 4,7 Millionen Inhalte von Instagram entfernt und die Foto- und Video-Sharing-Plattform erhielt 11.138 Meldungen, wobei Tools zur Lösung von 4.209 Benutzerproblemen bereitgestellt wurden.
Fachliche Rezension: Von den verbleibenden 6.929 Meldungen erforderten 4.107 eine spezielle Prüfung und führten zur Entfernung von Inhalten.
„Von den anderen 6.929 Meldungen, bei denen eine spezielle Überprüfung erforderlich war, haben wir den Inhalt gemäß unseren Richtlinien überprüft und bei insgesamt 4.107 Meldungen Maßnahmen ergriffen. Die verbleibenden 2.822 Berichte wurden überprüft, aber möglicherweise nicht bearbeitet“, hieß es.
Meta betonte, dass die Anzahl der entfernten Teile Inhalte darstellt, die gegen seine Standards verstoßen, einschließlich Entfernung oder Warnungen wegen störender Inhalte.
Jeden Monat müssen große Social-Media-Unternehmen, darunter Meta und X (ehemals Twitter), nach der Umsetzung der IT-Regeln 2021 in Indien einen Compliance-Bericht veröffentlichen.
Insbesondere entfernte das Unternehmen 37 Millionen Teile davon schlechter Inhalt im Vormonat, was einem deutlichen Rückgang auf Monatsbasis entspricht. Der Bericht beschreibt auch die Bemühungen zur Inhaltsmoderation in 13 Richtlinien für Facebook und 12 für Instagram.
Außerdem wird Metas Reaktion auf Benutzerberichte hervorgehoben, die über den indischen Beschwerdemechanismus eingegangen sind.
Entfernung von Inhalten auf Facebook
Nach Angaben des Unternehmens wurden über 18,3 Millionen Inhalte von Facebook entfernt. Die Plattform erhielt 21.149 Berichte und stellte Tools zur Lösung von 10.710 Benutzerproblemen bereit.
Fachliche Rezension: Von den verbleibenden 10.739 Meldungen erforderten 4.538 eine spezielle Prüfung und führten zur Entfernung von Inhalten.
Entfernung von Inhalten auf Instagram
Genau wie auf Facebook wurden über 4,7 Millionen Inhalte von Instagram entfernt und die Foto- und Video-Sharing-Plattform erhielt 11.138 Meldungen, wobei Tools zur Lösung von 4.209 Benutzerproblemen bereitgestellt wurden.
Fachliche Rezension: Von den verbleibenden 6.929 Meldungen erforderten 4.107 eine spezielle Prüfung und führten zur Entfernung von Inhalten.
„Von den anderen 6.929 Meldungen, bei denen eine spezielle Überprüfung erforderlich war, haben wir den Inhalt gemäß unseren Richtlinien überprüft und bei insgesamt 4.107 Meldungen Maßnahmen ergriffen. Die verbleibenden 2.822 Berichte wurden überprüft, aber möglicherweise nicht bearbeitet“, hieß es.
Meta betonte, dass die Anzahl der entfernten Teile Inhalte darstellt, die gegen seine Standards verstoßen, einschließlich Entfernung oder Warnungen wegen störender Inhalte.
Jeden Monat müssen große Social-Media-Unternehmen, darunter Meta und X (ehemals Twitter), nach der Umsetzung der IT-Regeln 2021 in Indien einen Compliance-Bericht veröffentlichen.