Kenianisches Gericht ebnet den Weg für eine Klage, in der behauptet wird, Facebook habe eine Rolle beim Schüren des Tigray-Konflikts in Äthiopien gespielt

Die EU schlaegt einen 12 Milliarden Dollar Plan vor um den wachsenden Cybersicherheitsbedrohungen

Äthiopier, die Meta verklagen, weil sie Inhalte nicht angemessen moderiert haben, die die Gewalt verstärkten, die während des Tigray-Krieges über eine halbe Million Menschen das Leben kostete, erhielten grünes Licht, um dem Social-Media-Giganten außerhalb Kenias zu dienen. Dies ist das Neueste Fall das versucht, Facebook dazu zu zwingen, die Verstärkung gewalttätiger, hasserfüllter und aufhetzender Posts einzustellen.

Ein kenianisches Gericht gewährte am Donnerstag den Petenten die Erlaubnis, Meta in Kalifornien, USA, zu dienen, nachdem sie das Büro des Social-Media-Riesen vor Ort nicht ausfindig gemacht hatten. Es stellte sich heraus, dass Meta zwar geschäftlich in Kenia tätig ist, aber kein physisches Büro hat, da seine Mitarbeiter vor Ort remote arbeiten.

Die Entscheidung legt den Grundstein für den Beginn einer Klage, die im Dezember letzten Jahres von der kenianischen Rechtsgruppe Katiba Institute und den äthiopischen Forschern Fisseha Tekle und Abrham Meareg eingereicht wurde. Mearegs Vater, Professor Meareg Amare Abrha, wurde während des Tigray-Krieges getötet, nachdem Posts auf Facebook gedoxt und zu Gewalt gegen ihn aufgerufen hatten, heißt es in der Klage.

Die Petenten wollen Meta zwingen, den viralen Hass auf Facebook zu stoppen, die Inhaltsüberprüfung im Moderationszentrum in Kenia zu intensivieren und einen Entschädigungsfonds in Höhe von 1,6 Milliarden US-Dollar einzurichten.

Die Petenten behaupten, dass der Algorithmus von Facebook hasserfüllte und aufreizende Posts verstärkte, die zu mehr Interaktionen führten und die Benutzer länger eingeloggt hielten.

Sie behaupten, dass Facebook „zu wenig in die Überprüfung menschlicher Inhalte am Hub in Kenia investiert“ habe und Leben riskiere, da es Beiträge ignoriert, abgelehnt oder träge gehandelt habe, um Beiträge zu entfernen, die auch gegen seine Gemeinschaftsstandards verstoßen.

Meareg sagte, seine Familie habe aus erster Hand erfahren, wie fehlerhafte Moderation von Inhalten Leben gefährden und Familien auseinanderbrechen könne.

Er behauptet, sein Vater sei ermordet worden, nachdem Meta wiederholten Aufforderungen zum Abschalten nicht nachgekommen war Beiträge, die ihn und andere Tigrayaner ins Visier nahmen, als Aufrufe zu Massakern gegen die ethnische Gruppe online und offline verbreitet wurden. Der Tigray-Krieg, der zwei Jahre dauerte, brach im November 2020 aus, nachdem die äthiopische Armee mit den Tigray-Streitkräften zusammengestoßen war. 600.000 Menschen starben.

„Mein Vater wurde getötet, weil auf Facebook veröffentlichte Posts ihn identifizierten, ihn falsch beschuldigten, seine Wohnadresse preisgaben und seinen Tod forderten“, sagte Meareg, ein ehemaliger Doktorand, und fügte hinzu, dass er gezwungen war, aus dem Land zu fliehen und zu suchen Asyl in den USA nach dem Tod seines Vaters.

„Der Fall meines Vaters ist kein Einzelfall. Ungefähr zur Zeit der Posts und seines Todes war Facebook mit hasserfüllten, aufhetzenden und gefährlichen Posts übersät … viele andere Tragödien wie unsere haben sich ereignet“, sagte er.

Meta lehnte eine Stellungnahme ab.

Meareg sagt, er habe die Beiträge gemeldet, auf die er gestoßen sei, aber seine Berichte seien entweder abgelehnt oder ignoriert worden. Er behauptet, im Jahr 2021 mehrere Posts gemeldet zu haben, darunter einen, der Leichen enthielt, und einige dieser Posts waren noch auf der sozialen Website, als er im vergangenen Dezember vor Gericht ging.

Er bemängelte die Inhaltsüberprüfung von Facebook und sagte, der Hub in Kenia habe nur 25 Moderatoren, die für Amharisch-, Tigrinya- und Oromo-Inhalte verantwortlich seien, wodurch 82 andere Sprachen ohne Personal zum Moderieren ausgelassen würden.

Meta sagte gegenüber Tech zuvor, dass es Teams und Technologien einsetzte, um Hassreden und Aufstachelung zu beseitigen, und dass es Partner und Mitarbeiter mit Ortskenntnissen hatte, die ihm bei der Entwicklung von Methoden zum Auffangen von verletzenden Inhalten halfen.

„Facebook hat sich einen Fehler erlaubt und es in eine Waffe zur Verbreitung von Hass, Gewalt und sogar Völkermord verwandelt“, sagte Martha Dark, Direktorin von Foxglove, einer NGO für technische Gerechtigkeit, die den Fall unterstützt. „Meta könnte heute echte Maßnahmen ergreifen, um dem Hass, der sich auf Facebook ausbreitet, den Stecker zu ziehen.“

Dies ist nicht das erste Mal, dass Meta beschuldigt wird, Gewalt in Äthiopien angeheizt zu haben. Hinweisgeber Frances Haugen hatte es zuvor angeklagt des „buchstäblichen Schürens ethnischer Gewalt“ in Äthiopien und a Global Witness-Untersuchung stellte auch fest, dass Facebook schlecht darin war, Hassreden in der Hauptsprache Äthiopiens zu erkennen.

Derzeit sind Social-Media-Plattformen, einschließlich Facebook, in Äthiopien seit Anfang Februar gesperrt, nachdem staatlich geführte Pläne zur Spaltung der äthiopisch-orthodoxen Tewhado-Kirche zu regierungsfeindlichen Protesten geführt hatten.

Hinzu kommen Metas Probleme in Kenia

Meta sieht sich drei Klagen in Kenia gegenüber.

Das Unternehmen und sein Partner für die Prüfung von Inhalten in Subsahara-Afrika, Sama, wurden im vergangenen Mai in Kenia wegen Ausbeutung und Gewerkschaftsfeindlichkeit von Daniel Motaung, einem ehemaligen Moderator von Inhalten, verklagt.

Motaung behauptete, von Sama entlassen worden zu sein, weil er 2019 einen Streik organisiert hatte, der darauf abzielte, Samas Mitarbeiter gewerkschaftlich zu organisieren. Er verklagte Meta und Sama wegen Zwangsarbeit, Ausbeutung, Menschenhandel, unfairen Arbeitsbeziehungen, Gewerkschaftszerschlagung und Versäumnis, „angemessene“ psychische Gesundheit und psychosoziale Unterstützung bereitzustellen.

Meta beantragte, seinen Namen aus der Klage streichen zu lassen, und sagte, Motaung sei nicht sein Angestellter und das kenianische Gericht sei nicht zuständig. Es gelang jedoch nicht, die Klage einzustellen, nachdem das Gericht entschieden hatte, dass es einen Fall zu beantworten habe, da einige Aspekte der Art und Weise, wie das Unternehmen im Land tätig ist, es haftbar machen. Der Social-Media-Riese hat gegen die Entscheidung des Gerichts Berufung eingelegt.

Anfang dieses Monats wurde Meta zusammen mit Sama und einem anderen Content-Review-Partner, Majorel, von 183 Content-Moderatoren verklagt, die behaupteten, sie seien unrechtmäßig entlassen und auf die schwarze Liste gesetzt worden. Die Moderatoren behaupteten, sie seien von Sama unrechtmäßig gefeuert worden, nachdem es seinen Bereich zur Überprüfung von Inhalten eingestellt hatte, und dass Meta seinen neuen in Luxemburg ansässigen Partner Majorel angewiesen hatte, ehemalige Inhaltsmoderatoren von Sama auf die schwarze Liste zu setzen.

Meta wollte auch aus diesem Fall gestrichen werden, aber letzte Woche erklärte das kenianische Gericht, es sei zuständig für Streitigkeiten zwischen Arbeitgebern und Arbeitnehmern und „Angelegenheiten angeblicher rechtswidriger und unfairer Beendigung des Arbeitsverhältnisses aufgrund von Entlassung“ und dass es Macht habe „ angebliche Verletzung von Menschenrechten und Grundfreiheiten durchzusetzen“ von Meta, Sama und Majorel.

tch-1-tech