„Mehr töten“: Facebook erkennt Hass gegen Rohingya nicht

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

JAKARTA, INDONESIEN: Ein neuer Bericht hat ergeben, dass Facebook es versäumt hat, eklatante Hassreden und Gewaltaufrufe gegen die muslimische Minderheit der Rohingya in Myanmar zu erkennen, Jahre nachdem festgestellt wurde, dass ein solches Verhalten eine entscheidende Rolle bei dem Völkermord gegen sie gespielt hat.
Der exklusiv mit The Associated Press geteilte Bericht zeigte, dass die Rechtegruppe Global Witness acht bezahlte Anzeigen zur Genehmigung an Facebook übermittelte, die jeweils verschiedene Versionen von Hassreden gegen Rohingya enthielten. Alle acht Anzeigen wurden von Facebook zur Veröffentlichung freigegeben.
Die Gruppe zog die Anzeigen zurück, bevor sie gepostet oder bezahlt wurden, aber die Ergebnisse bestätigten, dass die undichten Kontrollen von Facebook trotz ihrer Versprechungen, es besser zu machen, Hassreden und Aufrufe zu Gewalt auf ihrer Plattform immer noch nicht erkennen.
Die Armee führte 2017 nach einem Angriff einer aufständischen Gruppe der Rohingya eine sogenannte Räumungskampagne im Bundesstaat Rakhine im Westen Myanmars durch. Mehr als 700.000 Rohingya flohen in das benachbarte Bangladesch, und Sicherheitskräfte wurden beschuldigt, Tausende von Häusern vergewaltigt, getötet und in Brand gesteckt zu haben.
Ebenfalls am Montag gab US-Außenminister Antony Blinken bekannt, dass die USA die Gewalt gegen Rohingya als Völkermord betrachten. Die Erklärung soll sowohl internationalen Druck erzeugen als auch die Grundlage für mögliche rechtliche Schritte legen, sagte Blinken.
Am 1. Februar letzten Jahres hat das Militär Myanmars gewaltsam die Kontrolle über das Land übernommen und demokratisch gewählte Regierungsbeamte inhaftiert. Rohingya-Flüchtlinge haben die Militärübernahme verurteilt und gesagt, dass sie dadurch mehr Angst davor haben, nach Myanmar zurückzukehren.
Experten sagen, dass solche Anzeigen weiterhin erscheinen und dass Facebook trotz seiner Versprechungen, es besser zu machen, und der Zusicherung, dass es seine Rolle im Völkermord ernst genommen hat, selbst die einfachsten Tests nicht besteht _, um sicherzustellen, dass bezahlte Anzeigen, die auf seiner Website geschaltet werden, keine enthalten Hassrede, die zur Tötung von Rohingya-Muslimen aufruft.
„Das derzeitige Töten der Kalar ist nicht genug, wir müssen mehr töten!“ Lesen Sie einen vorgeschlagenen bezahlten Beitrag von Global Witness, in dem ein Schimpfwort verwendet wird, das in Myanmar oft verwendet wird, um sich auf Menschen ostindischer oder muslimischer Herkunft zu beziehen.
„Sie sind sehr schmutzig. Die bengalischen/Rohingya-Frauen haben einen sehr niedrigen Lebensstandard und schlechte Hygiene. Sie sind nicht attraktiv“, las ein anderer.
„Diese Posts sind schockierend in dem, was sie ermutigen, und ein klares Zeichen dafür, dass Facebook nicht geändert oder getan hat, was sie der Öffentlichkeit gesagt haben, was sie tun würden: sich selbst richtig zu regulieren“, sagte Ronan Lee, wissenschaftlicher Mitarbeiter am Institute for Media and Creative Industries an der Loughborough University, London.
Die acht Anzeigen von Global Witness verwendeten in ihrem Bericht an den Menschenrechtsrat alle Hassreden, die direkt von der unabhängigen internationalen Untersuchungsmission der Vereinten Nationen zu Myanmar übernommen wurden. Einige Beispiele stammten aus früheren Facebook-Posts.
Die Tatsache, dass Facebook alle acht Anzeigen genehmigt hat, ist besonders besorgniserregend, da das Unternehmen behauptet, Anzeigen an einen „noch strengeren“ Standard als normale, unbezahlte Beiträge zu halten, so die Hilfeseite für bezahlte Anzeigen.
„Ich akzeptiere den Punkt, dass acht keine sehr große Zahl ist. Aber ich denke, die Ergebnisse sind wirklich deutlich, dass alle acht Anzeigen zur Veröffentlichung angenommen wurden“, sagte Rosie Sharpe, eine Aktivistin bei Global Witness. „Ich denke, man kann daraus schließen, dass die überwiegende Mehrheit der Hassreden wahrscheinlich durchkommen wird.“
Die Muttergesellschaft von Facebook, Meta Platforms Inc., sagte, sie habe in die Verbesserung ihrer Sicherheitskontrollen in Myanmar investiert, einschließlich des Verbots von Militärkonten nach der Tatmadaw, wie die Streitkräfte vor Ort bekannt sind, der Machtergreifung und der Inhaftierung gewählter Führer im Putsch von 2021.
„Wir haben ein engagiertes Team von burmesischen Sprechern aufgebaut, die Tatmadaw verboten, Netzwerke gestört, die öffentliche Debatte manipuliert, und Maßnahmen gegen schädliche Fehlinformationen ergriffen, um die Sicherheit der Menschen zu gewährleisten. Wir haben auch in burmesische Sprachtechnologie investiert, um die Verbreitung von verletzenden Inhalten zu verringern “, schrieb Rafael Frankel, Direktor für öffentliche Politik für Schwellenländer bei Meta Asia Pacific, am 17. März in einer E-Mail-Erklärung an AP -Finding Mission on Myanmars Erkenntnissen und der unabhängigen Menschenrechtsfolgenabschätzung, die wir in Auftrag gegeben und 2018 veröffentlicht haben.“
Facebook wurde in der Vergangenheit zur Verbreitung von Hassreden und zur Verstärkung der Militärpropaganda in Myanmar verwendet.
Kurz nachdem Myanmar im Jahr 2000 an das Internet angeschlossen war, tat sich Facebook mit seinen Telekommunikationsanbietern zusammen, um Kunden die Nutzung der Plattform zu ermöglichen, ohne für die damals noch teuren Daten bezahlen zu müssen. Die Nutzung der Plattform explodierte. Für viele in Myanmar wurde Facebook zum Internet selbst.
Lokale Befürworter der Internetpolitik sagten Facebook wiederholt, Hassreden würden sich über die Plattform ausbreiten und oft auf die muslimische Minderheit der Rohingya in der mehrheitlich buddhistischen Nation abzielen.
Jahrelang habe Facebook es versäumt, in Inhaltsmoderatoren zu investieren, die lokale Sprachen oder Faktenprüfer mit einem Verständnis der politischen Situation in Myanmar sprechen, oder bestimmte Konten zu schließen oder Seiten zu löschen, die verwendet werden, um Hass auf die Rohingya zu verbreiten, sagte Tun Khin, Präsident der burmesischen Rohingya Organization UK, eine in London ansässige Interessenvertretung der Rohingya.
Im März 2018, weniger als sechs Monate nachdem Hunderttausende Rohingya vor der Gewalt im Westen Myanmars geflohen waren, sagte Marzuki Darusman, Vorsitzender der UN Independent International Fact Finding Mission on Myanmar, gegenüber Reportern, die sozialen Medien hätten „wesentlich zum Ausmaß der Schärfe beigetragen“. und Meinungsverschiedenheiten und Konflikte, wenn Sie so wollen, innerhalb der Öffentlichkeit.„
„Hassreden gehören natürlich dazu. In Bezug auf die Situation in Myanmar sind soziale Medien Facebook und Facebook ist soziale Medien“, sagte Darusman.
Auf die Frage nach Myanmar einen Monat später bei einer Anhörung im US-Senat sagte Mark Zuckerberg, CEO von Meta, dass Facebook plane, „Dutzende“ von burmesischen Sprechern einzustellen, um Inhalte zu moderieren, und mit zivilgesellschaftlichen Gruppen zusammenarbeiten werde, um Hassfiguren zu identifizieren und neue Technologien zur Bekämpfung von Hassreden zu entwickeln.
„Hassreden sind sehr sprachspezifisch. Ohne Menschen, die die Landessprache sprechen, ist es schwierig, und wir müssen unsere Bemühungen dort dramatisch verstärken“, sagte Zuckerberg.
Doch in internen Dateien, die letztes Jahr von der Whistleblowerin Frances Haugen geleakt wurden, stellte AP fest, dass es weiterhin Verstöße gab. Das Unternehmen verstärkte seine Bemühungen zur Bekämpfung von Hassreden, entwickelte jedoch nie die dafür erforderlichen Instrumente und Strategien.
Rohingya-Flüchtlinge haben Facebook auf mehr als 150 Milliarden Dollar verklagt und beschuldigt, Hassreden, die zur Gewalt gegen die muslimische Volksgruppe durch Militärherrscher und ihre Unterstützer in Myanmar aufstachelten, nicht gestoppt zu haben. Rohingya-Jugendgruppen in den Flüchtlingslagern in Bangladesch haben in Irland eine separate Beschwerde bei der 38 Nationen umfassenden Organisation für wirtschaftliche Zusammenarbeit und Entwicklung eingereicht, in der sie Facebook auffordern, einige Hilfsprogramme in den Lagern bereitzustellen.
Das Unternehmen, das sich jetzt Meta nennt, hat sich geweigert zu sagen, wie viele seiner Inhaltsmoderatoren Burmesisch lesen und somit Hassreden in Myanmar erkennen können.
„Überlebende des Rohingya-Genozids leben auch heute noch in Lagern und Facebook lässt sie weiterhin im Stich“, sagte Tun Khin. „Facebook muss mehr tun.“

toi-allgemeines