Meta drängte darauf, Kriegsopfer zu entschädigen, da behauptet wurde, Facebook habe den Tigray-Konflikt entfacht

Meta sieht sich zunehmenden Forderungen gegenüber, einen Entschädigungsfonds für Opfer des Tigray-Krieges einzurichten, den Facebook angeblich angeheizt hat und der zu über 600.000 Toten und der Vertreibung von Millionen anderen in ganz Äthiopien geführt hat.

Menschenrechtsgruppe Amnesty International, in einem neuen Bericht, hat Meta dazu gedrängt, einen Fonds einzurichten, der auch anderen Opfern von Konflikten auf der ganzen Welt zugute kommen soll, angesichts der zunehmenden Befürchtungen, dass die Präsenz der sozialen Website in „Hochrisiko- und Konfliktgebieten“ „die Befürwortung von Hass befeuern und zu Gewalt anstacheln könnte“. gegen ethnische und religiöse Minderheiten“ in neuen Regionen. Der Bericht von Amnesty International beschreibt, wie „Meta zu Menschenrechtsverletzungen in Äthiopien beigetragen hat“.

Der erneute Drang nach Wiedergutmachung kommt gerade, als nächste Woche ein Fall in Kenia wieder aufgenommen wird, in dem Äthiopier von Meta eine Entschädigung in Höhe von 1,6 Milliarden US-Dollar fordern, weil sie angeblich den Tigray-Krieg angeheizt haben. Amnesty International ist in dem Fall eine interessierte Partei.

Amnesty International hat Meta außerdem gebeten, seine Kapazitäten zur Moderation von Inhalten in Äthiopien zu erweitern, indem es 84 der vier derzeit abgedeckten Sprachen einbezieht, und öffentlich anzuerkennen und sich dafür zu entschuldigen, dass es während des Krieges zu Menschenrechtsverletzungen beigetragen hat. Der Tigray-Krieg brach im November nach einem Konflikt zwischen der Bundesregierung Äthiopiens, Eritreas und der USA aus Volksbefreiungsfront von Tigray (TPLF) eskalierte in der nördlichen Region des ostafrikanischen Landes.

Die Menschenrechtsgruppe sagt, dass Metas „Facebook mit Inhalten überschwemmt wurde, die zu Gewalt aufstacheln und Hass befürworten“, Beiträge, die auch die Tigray-Gemeinschaft entmenschlichten und diskriminierten. Sie beschuldigte Metas „überwachungsbasiertes Geschäftsmodell und auf Engagement ausgerichtete Algorithmen“, die „Engagement um jeden Preis“ und „Profit an erster Stelle“ priorisieren, für die Normalisierung von „Hass, Gewalt und Diskriminierung gegen die Tigray-Gemeinschaft“.

„Die Inhaltsgestaltungsalgorithmen von Meta sind darauf abgestimmt, das Engagement zu maximieren und Inhalte zu fördern, die häufig aufrührerisch, schädlich und spaltend sind, da diese tendenziell die meiste Aufmerksamkeit der Benutzer auf sich ziehen“, heißt es in dem Bericht.

„Im Kontext des Nordäthiopien-Konflikts führten diese Algorithmen zu verheerenden Auswirkungen auf die Menschenrechte und verstärkten auf Facebook, Äthiopiens beliebtester Social-Media-Plattform, Inhalte, die auf die Tigray-Gemeinschaft abzielten – darunter Inhalte, die Hass befürworteten und zu Gewalt, Feindseligkeit und Diskriminierung aufriefen“, sagte der Bericht, der die gelebten Erfahrungen von Tigray-Kriegsopfern dokumentierte.

Laut Amnesty International stellt der Einsatz algorithmischer Viralität – bei der bestimmte Inhalte verstärkt werden, um ein breites Publikum zu erreichen – in konfliktgefährdeten Gebieten erhebliche Risiken dar, da das, was online passiert ist, leicht zu Gewalt im Offline-Bereich führen kann. Sie warfen Meta vor, Engagements Vorrang vor dem Wohlergehen der Tigrayaner zu geben, eine unterdurchschnittliche Moderation, die Desinformation auf seiner Plattform gedeihen ließ, und frühere Warnungen darüber, dass Facebook einem Missbrauchsrisiko ausgesetzt sei, missachtet zu haben.

Der Bericht erzählt, wie Meta habe die Warnungen nicht beachtet von Forschern, dem Facebook Oversight Board, zivilgesellschaftlichen Gruppen und seinen „vertrauenswürdigen Partnern“, die zum Ausdruck bringen, wie Facebook zur Massengewalt in Äthiopien beitragen könnte.

Beispielsweise schickten Organisationen für digitale Rechte im Juni 2020, vier Monate vor Ausbruch des Krieges in Nordäthiopien, einen Brief an Meta über die schädlichen Inhalte, die auf Facebook in Äthiopien verbreitet wurden, und warnten, dass diese „zu körperlicher Gewalt und anderen feindseligen Handlungen führen könnten“. und Diskriminierung von Minderheitengruppen.“

Der Brief enthielt eine Reihe von Empfehlungen, darunter „die Einstellung der algorithmischen Verstärkung von Inhalten, die zu Gewalt aufstacheln, vorübergehende Änderungen an den Sharing-Funktionen und eine Abschätzung der Auswirkungen auf die Menschenrechte auf die Geschäftstätigkeit des Unternehmens in Äthiopien“.

Laut Amnesty International wurden in Myanmar ähnliche systematische Fehler beobachtet, beispielsweise die Verwendung eines automatisierten Systems zur Entfernung von Inhalten, das lokale Schriftarten nicht lesen konnte und dies zuließ schädliche Inhalte, um online zu bleiben. Dies geschah drei Jahre vor dem Krieg in Äthiopien, aber die Misserfolge waren ähnlich.

Wie in Myanmar heißt es in dem Bericht, dass die Moderation in dem nordafrikanischen Land verpfuscht wurde, obwohl das Land in Metas Liste der am stärksten gefährdeten Länder in seinem „Stufensystem“ aufgeführt ist, das als Richtschnur für die Zuteilung von Moderationsressourcen dienen sollte.

„Meta war nicht in der Lage, Inhalte in den wichtigsten in Äthiopien gesprochenen Sprachen angemessen zu moderieren und reagierte nur langsam auf Rückmeldungen von Inhaltsmoderatoren zu Begriffen, die als schädlich angesehen werden sollten. Dies führte dazu, dass schädliche Inhalte auf der Plattform zirkulieren durften – zeitweise sogar nachdem sie gemeldet wurden, da nicht festgestellt wurde, dass sie gegen die Community-Standards von Meta verstoßen“, sagte Amnesty International.

„Obwohl die Moderation von Inhalten allein nicht alle Schäden verhindert hätte, die sich aus Metas algorithmischer Verstärkung ergeben, handelt es sich dabei um eine wichtige Schadensbegrenzungstaktik“, hieß es.

Unabhängig davon ein aktueller Menschenrechtsrat der Vereinten Nationen Bericht zu Äthiopien stellte außerdem fest, dass Facebook, obwohl es Äthiopien als „gefährdet“ einstufte, langsam auf Anfragen zur Entfernung schädlicher Inhalte reagierte, keine ausreichenden finanziellen Investitionen tätigte und unzureichende Personal- und Sprachkenntnisse aufwies. Ein globaler Zeuge Untersuchung stellte außerdem fest, dass Facebook „extrem schlecht darin war, Hassreden in der Hauptsprache Äthiopiens zu erkennen“. Die Whistleblowerin Frances Haugen warf Facebook zuvor vor, in Äthiopien „ethnische Gewalt buchstäblich zu schüren“.

Meta bestritt, dass es versäumt habe, Maßnahmen zu ergreifen, um sicherzustellen, dass Facebook nicht zur Förderung von Gewalt genutzt werde, und erklärte: „Wir stimmen grundsätzlich nicht mit den Schlussfolgerungen überein, zu denen Amnesty International in dem Bericht gelangt ist, und die Vorwürfe des Fehlverhaltens ignorieren wichtige Zusammenhänge und Fakten.“ Äthiopien hat und bleibt eine unserer höchsten Prioritäten und wir haben umfangreiche Maßnahmen ergriffen, um rechtsverletzende Inhalte auf Facebook im Land einzudämmen.“

„Unsere Sicherheits- und Integritätsarbeit in Äthiopien orientiert sich am Feedback lokaler zivilgesellschaftlicher Organisationen und internationaler Institutionen – mit vielen von ihnen arbeiten wir weiterhin zusammen und trafen uns dieses Jahr in Addis Abeba. Wir beschäftigen Mitarbeiter mit lokalem Wissen und Fachwissen und entwickeln unsere Fähigkeiten weiter, um rechtsverletzende Inhalte in den am häufigsten gesprochenen Sprachen des Landes zu erkennen, darunter Amharisch, Oromo, Somali und Tigrinya“, sagte ein Meta-Sprecher.

Amnesty International sagt, dass die Maßnahmen, die Meta ergriffen hat, wie die Verbesserung seiner Content-Moderations- und Sprachklassifizierungssysteme sowie die Reduzierung von Reshares, zu spät erfolgten und „in ihrem Umfang begrenzt waren, da sie sich nicht mit der Grundursache der Bedrohung befassen, die Meta für die Menschenrechte darstellt – dem Das datenhungrige Geschäftsmodell des Unternehmens.“

Zu seinen Empfehlungen gehört die Reform des „Trusted Partner“-Programms von Meta, um sicherzustellen, dass zivilgesellschaftliche Organisationen und Menschenrechtsverteidiger eine sinnvolle Rolle bei inhaltlichen Entscheidungen und der Notwendigkeit einer menschlichen Folgenabschätzung seiner Plattformen in Äthiopien spielen. Darüber hinaus wurde Meta aufgefordert, die invasive Erfassung personenbezogener Daten und Informationen, die die Menschenrechte gefährden, zu stoppen. Außerdem wurde empfohlen, „den Nutzern eine Opt-in-Option für die Verwendung ihrer Content-Shaping-Algorithmen zu geben“.

Sie ist sich jedoch der allgemeinen mangelnden Bereitschaft der Big Tech bewusst, den Menschen an die erste Stelle zu setzen, und fordert die Regierungen auf, Gesetze und Vorschriften zu erlassen und durchzusetzen, um Missbräuche von Unternehmen zu verhindern und zu bestrafen.

„Es ist wichtiger denn je, dass Staaten ihrer Verpflichtung zum Schutz der Menschenrechte nachkommen, indem sie sinnvolle Gesetze einführen und durchsetzen, die das überwachungsbasierte Geschäftsmodell eindämmen.“

tch-1-tech