Meta Das Aufsichtsgremium der Plattformen sagte am Donnerstag, es werde die Moderation des arabischen Wortes „Shaheed“, was auf Englisch „Märtyrer“ bedeutet, da es für mehr Inhaltsentfernungen auf seinen Plattformen verantwortlich ist als jedes andere einzelne Wort oder jede andere Phrase. Meta hat den Vorstand um Rat gefragt, ob er weiterhin Beiträge entfernen sollte, die das Wort „Shaheed“ verwenden, um sich auf Personen zu beziehen, die als gefährlich eingestuft wurden, oder einen anderen Ansatz verfolgen sollte, sagte der Vorstand.
„Dies ist ein komplexes Moderationsproblem, das sich darauf auswirkt, wie sich Millionen von Menschen online ausdrücken und ob muslimische und arabischsprachige Gemeinschaften aufgrund der Durchsetzungspraktiken von Meta einer übermäßigen Durchsetzung ihrer Inhalte ausgesetzt sind“, sagte Thomas Hughes, Direktor der Aufsichtsbehörde. Das Wort zu mäßigen, kann zu einer übermäßigen Durchsetzung führen, insbesondere in arabischsprachigen Ländern, und könnte sich auf die Berichterstattung in diesen Regionen auswirken, stellte der Vorstand fest und forderte öffentliche Kommentare, um seine Überlegungen zu unterstützen. Das Aufsichtsgremium wurde Ende 2020 eingerichtet, um die Entscheidungen von Facebook und Instagram über die Entfernung oder Beibehaltung bestimmter Inhalte zu überprüfen und Entscheidungen darüber zu treffen, ob die Maßnahmen des Social-Media-Unternehmens aufrechterhalten oder aufgehoben werden sollen. Der Vorstand sagte am Donnerstag auch, er werde einen Fall untersuchen, der sich auf einen Posten bezieht, der die „Belagerung“ des brasilianischen Kongresses nach der Wahl von Präsident Lula da Silva fordert.Ruft nach Überholung
Im Dezember letzten Jahres empfahl das Aufsichtsgremium dem Unternehmen, sein System zu überarbeiten und hochkarätige Benutzer von seinen Regeln auszunehmen, und sagte, dass die Praxis die Mächtigen privilegiert und es Geschäftsinteressen erlaube, Inhaltsentscheidungen zu beeinflussen.Die als Cross-Check bezeichnete Vereinbarung fügt Millionen von Facebook- und Instagram-Konten von Prominenten, Politikern und anderen einflussreichen Nutzern eine Ebene der Durchsetzungsprüfung hinzu und gibt ihnen zusätzlichen Spielraum, Inhalte zu veröffentlichen, die gegen die Unternehmensrichtlinien verstoßen.Cross-Check „priorisiert Benutzer von kommerziellem Wert zu Meta und als strukturiert nicht erfüllt Metas Menschenrechtsverantwortung und Unternehmenswerte“, sagte der Direktor des Aufsichtsgremiums, Thomas Hughes, in einer Erklärung, in der die Entscheidung bekannt gegeben wurde.Der Vorstand hatte das Cross-Check-Programm seit letztem Jahr überprüft, als die Whistleblowerin Frances Haugen das Ausmaß des Systems aufdeckte, indem sie interne Unternehmensdokumente an das Wall Street Journal weitergab.