Das Unternehmen beschränkte den Zugriff der Zeitung auf bestimmte Facebook-Funktionen, nachdem es den Beitrag entfernt hatte.
Die Zeitung legte Berufung gegen die Entscheidung ein, wonach der Beitrag an eine spezielle Moderationswarteschlange verwiesen, aber laut Aufsichtsbehörde nie überprüft wurde. Das Aufsichtsgremium sagte, Metas Entscheidung, den Beitrag zu entfernen, widerspreche den Richtlinien von Facebook, da sie die Berichterstattung über solche Organisationen erlauben, und das Unternehmen revidierte seine Entscheidung, nachdem das Gremium den Fall ausgewählt hatte. „Das Board stellte fest, dass Meta die Meinungsfreiheit der Benutzer besser schützen sollte, wenn es um die Berichterstattung über terroristische Regime geht“, sagte das Oversight Board. (https://bit.ly/3U8aUnP) „Durch die Verwendung automatisierter Systeme zum Entfernen von Inhalten können Media Matching Service-Banken die Auswirkungen falscher Entscheidungen einzelner menschlicher Prüfer verstärken“, fügte sie hinzu. Das Aufsichtsgremium von Meta, dem Akademiker, Rechtsexperten und Anwälte angehören, wurde vom Unternehmen geschaffen, um über einen kleinen Teil heikler Einsprüche gegen die Moderation von Inhalten zu entscheiden, aber es kann auch Ratschläge zu Website-Richtlinien geben.