Metas erster Menschenrechtsbericht ist weitgehend selbstgefällig – Tech

Meta entlaesst Fuehrungskraft nachdem das Interviewvideo mit „Raubfaengern viral geworden

Meta heute veröffentlicht seinen ersten jährlichen Menschenrechtsbericht, der – in den Worten des Unternehmens – „Einblicke und Maßnahmen aus [Meta’s] menschenrechtliche Sorgfaltspflicht bei Produkten, Ländern und Reaktionen auf aufkommende Krisen.“ Der 83-seitige Bericht, der die Jahre 2020 und 2021 abdeckt, schlägt einen weitgehend selbstgefälligen Ton an und verteidigt Metas Fehlinformationsstrategie, ohne die Vorwürfe einer voreingenommenen Inhaltsmoderation zu berühren.

Aufsichtsbehörden und Bürgerrechtsgruppen haben im Laufe der Jahre behauptet, dass Meta es versäumt hat, angemessene Schutzmaßnahmen gegen Hassreden sowohl in den USA als auch in Ländern wie Myanmar, wo Facebook wurde verwendet Gewalt gegen Minderheiten zu fördern. Es gibt Hinweise darauf, dass die Geschäftspraktiken von Meta eine Rolle bei den Missbräuchen gespielt haben digitales Redlining zum Aufruhr im US-Kapitol. Meta selbst hat dies (bis zu einem gewissen Grad) anerkannt; eine interne Studie geführt von dem Unternehmen, das festgestellt hat, dass die Mehrheit der Menschen, die sich extremistischen Gruppen anschließen, dies aufgrund der Empfehlungsalgorithmen des Unternehmens tun.

Der Menschenrechtsbericht, angeführt von Meta-Menschenrechtsdirektorin Miranda Sissons, die vor drei Jahren in das Unternehmen eingetreten ist, enthält kaum Enthüllungen. Meta behauptet, dass es ein „Gleichgewicht“ zwischen Meinungsfreiheit und Sicherheit gefunden hat, mit Richtlinien zur Bekämpfung von Gesundheitsfehlinformationen und aufkommenden impliziten Bedrohungen. In dem Bericht untersucht das Unternehmen auch die Datenschutz- und Sicherheitsrisiken im Zusammenhang mit Ray-Ban Stories, seiner Brille, die Fotos und Videos aufnehmen kann, einschließlich der Frage, wie Daten von der Brille in der Cloud gespeichert und durchsucht werden könnten.

Aber der Bericht beschönigt – neben anderen Themen – die bisherigen Bemühungen von Meta in Indien, wo seine Produkte oft mit aufrührerischen Inhalten überhäuft wurden, berichtet by Das Wall Street Journal und andere gezeigt hat. Meta hat bei der Anwaltskanzlei Foley Hoag LLP eine Bewertung seiner Aktivitäten in Indien im Jahr 2020 in Auftrag gegeben, aber der heutige Bericht enthält nur eine Zusammenfassung dieser Bewertung, und Sissons hat dies getan sagte dass Meta nicht plant, es vollständig zu veröffentlichen.

In der Zusammenfassung stellen die Analysten von Foley Hoag fest, dass die Plattformen von Meta möglicherweise „mit erheblichen Menschenrechtsrisiken verbunden sind, die von Dritten verursacht werden“, einschließlich „der Befürwortung von Hass, der zu Feindseligkeit, Diskriminierung oder Gewalt anstiftet“. Meta sagt, dass es die Empfehlungen studiere, sich aber noch nicht verpflichtet habe, sie umzusetzen; Menschenrechtsgruppen haben beschuldigt das Unternehmen, den Umfang der Bewertung einzuschränken und ihren Abschluss zu verzögern.

Wie Engadget weist darauf hin, dass der Bericht es auch vermeidet, sich mit den Implikationen des Metaversums zu befassen – einem zunehmend haarigen Bereich, in dem es um Menschenrechte geht. Berichte deuten darauf hin, dass das Metaversum, wie es heute in Metas Produkten existiert – eine Mischung aus sozialen Virtual-Reality-Erfahrungen – eine sexuelle Übergriffe und Mäßigung Problem. Ein Unternehmenswächter dokumentiert Frauenfeindliche und rassistische Äußerungen, unzureichender Schutz von Kindern und ein Meldesystem, das Wiederholungstätern Tür und Tor öffnete.

Meta hat in den letzten Jahren verschiedene Ad-hoc-Bewertungen seiner Aktivitäten in Auftrag gegeben, darunter in Indonesien, Sri Lanka, Kambodscha und Myanmar. Hochkarätig Lecks und Anhörungen haben den Druck auf das Unternehmen erhöht, zu zeigen, dass es Fortschritte bei der Eindämmung der Flut schädlicher Inhalte macht. Sissons erzählt CNBC dass bei Meta inzwischen etwa 100 Menschen an menschenrechtsbezogenen Themen arbeiten und dass die Größe des Teams, das sie direkt betreut, auf acht Personen angewachsen ist.

tch-1-tech