Facebook erkennt Hassreden in Anzeigen erneut nicht

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Der Test hätte nicht viel einfacher sein können – und Facebook ist dennoch gescheitert. Facebook und seine Muttergesellschaft Meta scheiterten erneut in einem Test, wie gut sie offensichtlich gewalttätige Hassreden in Anzeigen erkennen konnten, die von den gemeinnützigen Gruppen auf der Plattform eingereicht wurden Globaler Zeuge und Fingerhut.

Die Hassbotschaften konzentrierten sich auf Äthiopienwo interne Dokumente der Whistleblowerin Frances Haugen zeigten, dass die ineffektive Moderation von Facebook „buchstäblich ethnische Gewalt schürt“, wie sie in ihr sagte Zeugenaussage vor dem Kongress 2021. Im März führte Global Witness einen ähnlichen Test durch Hassreden in Myanmardie Facebook ebenfalls nicht erkennen konnte. Die Gruppe erstellte 12 textbasierte Anzeigen, die mit entmenschlichender Hassrede zur Ermordung von Menschen aufriefen, die jeder der drei wichtigsten ethnischen Gruppen Äthiopiens angehören – den Amhara, den Oromo und den Tigrayanern. Facebooks Systeme die Anzeigen zur Veröffentlichung freigegeben, genau wie sie es mit den Myanmar-Anzeigen getan haben. Die Anzeigen wurden nicht wirklich auf Facebook veröffentlicht. Diesmal informierte die Gruppe Meta jedoch über die unentdeckten Verstöße. Das Unternehmen sagte, die Anzeigen hätten nicht genehmigt werden dürfen, und wies auf die Arbeit hin, die es geleistet hat, um hasserfüllte Inhalte auf seinen Plattformen aufzuspüren. Eine Woche nachdem er von Meta gehört hatte, reichte Global Witness zwei weitere Anzeigen zur Genehmigung ein, wiederum mit offenkundiger Hassrede. Die beiden Anzeigen, geschrieben in Amharisch, der am weitesten verbreiteten Sprache in Äthiopien, wurden genehmigt. Meta sagte, die Anzeigen hätten nicht genehmigt werden dürfen. „Wir haben stark in Sicherheitsmaßnahmen in Äthiopien investiert, mehr Personal mit lokalem Fachwissen eingestellt und unsere Kapazität aufgebaut, hasserfüllte und aufrührerische Inhalte in den am häufigsten gesprochenen Sprachen, einschließlich Amharisch, aufzufangen“, sagte das Unternehmen in einer per E-Mail gesendeten Erklärung und fügte diese Maschinen hinzu und Menschen können immer noch Fehler machen. Die Erklärung war identisch mit der, die Global Witness erhalten hatte. „Wir haben die schlimmsten Fälle herausgesucht, die uns eingefallen sind“, sagte er Rosie Sharpe, ein Aktivist bei Global Witness. „Diejenigen, die für Facebook am einfachsten zu erkennen sein sollten. Sie waren keine verschlüsselte Sprache. Sie waren keine Hundepfeifen. Sie waren explizite Aussagen, die besagten, dass diese Art von Person kein Mensch ist oder diese Art von Menschen ausgehungert werden sollte zu Tode.“ Meta hat sich konsequent geweigert zu sagen, wie viele Inhaltsmoderatoren es in Ländern hat, in denen Englisch nicht die Hauptsprache ist. Dazu gehören Moderatoren in Äthiopien, Myanmar und anderen Regionen, in denen auf den Plattformen des Unternehmens veröffentlichtes Material mit realer Gewalt in Verbindung gebracht wurde. Im November sagte Meta es einen Beitrag entfernt von Äthiopiens Premierminister, der die Bürger aufforderte, sich zu erheben und den Rivalen zu „begraben“. Tigray Kräfte, die die Hauptstadt des Landes bedrohten. In dem inzwischen gelöschten Post sagte Abiy, die „Verpflichtung, für Äthiopien zu sterben, gehört uns allen“. Er forderte die Bürger auf, sich zu mobilisieren, „indem sie jede Waffe oder Fähigkeit halten“. Abiy hat jedoch weiterhin auf der Plattform gepostet, wo er 4,1 Millionen Follower hat. Die USA und andere haben Äthiopien vor einer „entmenschlichenden Rhetorik“ gewarnt, nachdem der Premierminister die Tigray-Streitkräfte in Kommentaren vom Juli 2021 als „Krebs“ und „Unkraut“ bezeichnet hatte. „Wenn Anzeigen, die zum Völkermord in Äthiopien aufrufen, wiederholt durch das Netz von Facebook gelangen – selbst nachdem das Problem bei Facebook gemeldet wurde – gibt es nur eine mögliche Schlussfolgerung: Es ist niemand zu Hause“, sagte er Rosa Eisstockschießen, Direktor von Foxglove, einer in London ansässigen gemeinnützigen Organisation, die bei ihren Ermittlungen mit Global Witness zusammenarbeitete. „Jahre nach dem Völkermord in Myanmar ist klar, dass Facebook seine Lektion nicht gelernt hat.“


gn-tech