Facebook riskiert ein Verbot in Kenia, weil es Hassreden nicht stoppt – Tech

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Kenias ethnischer Kohäsionswächter, die National Cohesion and Integration Commission (NCIC), hat Facebook angewiesen, die Verbreitung von Hassreden auf seiner Plattform innerhalb von sieben Tagen zu stoppen oder in dem ostafrikanischen Land gesperrt zu werden.

Der Wachhund reagierte auf a Bericht von der Interessenvertretung Global Witness und Foxglove, einer juristischen Non-Profit-Firma, die Facebooks Unfähigkeit, Hassreden-Anzeigen zu erkennen, ausgespäht hat. Dies geschieht im Zuge der bevorstehenden nationalen Parlamentswahlen des Landes.

Der Global Witness-Bericht bestätigte NCICs eigene Feststellungen, dass Meta, die Muttergesellschaft von Facebook, hasserfüllte Inhalte nur langsam entfernt und verhindert, wodurch ein bereits instabiles politisches Umfeld angefacht wird. Das NCIC hat Meta nun aufgefordert, die Mäßigung vor, während und nach den Wahlen zu erhöhen und ihm eine Woche Zeit zu geben, um sich daran zu halten oder im Land verboten zu werden.

„Facebook verstößt gegen die Gesetze unseres Landes. Sie haben es zugelassen, dass sie ein Vektor für Hassreden und Aufstachelung, Fehlinformationen und Desinformationen sind.“ sagte NCIC-Kommissar Danvas Makori.

Global Witness und Foxglove forderten Meta außerdem auf, politische Werbung einzustellen und „Glasbruch“-Maßnahmen anzuwenden – die strengeren Methoden zur Notfallmoderation, mit denen Fehlinformationen und zivile Unruhen während der US-Wahlen 2020 eingedämmt wurden.

In Kenia hat Facebook eine Durchdringung von 82%und ist damit nach WhatsApp das am zweithäufigsten genutzte soziale Netzwerk.

Die KI-Modelle von Facebook erkennen Aufrufe zu Gewalt nicht

Um die Behauptung von Facebook zu testen, dass seine KI-Modelle Hassreden erkennen können, reichte Global Witness 20 Anzeigen ein, die zu Gewalt und Enthauptungen auf Englisch und Swahili aufriefen, die alle bis auf eine genehmigt wurden. Die Menschenrechtsgruppe sagt, sie habe Anzeigen verwendet, weil sie im Gegensatz zu Posts einem strengeren Überprüfungs- und Moderationsprozess unterliegen. Sie konnten Anzeigen auch deaktivieren, bevor sie live gingen.

„Alle von uns eingereichten Anzeigen verstoßen gegen die Community-Standards von Facebook und gelten als Hassreden und ethnisch begründete Aufrufe zu Gewalt. Ein Großteil der Rede war entmenschlichend, verglich bestimmte Stammesgruppen mit Tieren und rief zu Vergewaltigung, Schlachtung und Enthauptung auf“, sagte Global Witness in einer Erklärung.

Im Anschluss an die Ergebnisse sagte Ava Lee, die Leiterin der Digital Threats to Democracy Campaign von Global Witness: „Facebook hat die Macht, Demokratien zu schaffen oder zu brechen, und doch haben wir immer wieder gesehen, dass das Unternehmen den Gewinnen Vorrang vor den Menschen einräumt.“

„Wir waren entsetzt, als wir feststellten, dass sie selbst nach der Behauptung, ihre Systeme zu verbessern und die Ressourcen vor den Wahlen in Kenia zu erhöhen, immer noch offene Aufrufe zu ethnischer Gewalt billigte. Das ist kein Einzelfall. Wir haben die gleiche Unfähigkeit, richtig zu funktionieren, in den letzten Monaten auch in Myanmar und Äthiopien gesehen. Die möglichen Folgen der Untätigkeit von Facebook bei den Wahlen in Kenia und bei anderen bevorstehenden Wahlen auf der ganzen Welt, von Brasilien bis zu den US-Zwischenwahlen, sind erschreckend.“

Unter anderem fordert Global Witness Facebook auf, die Moderation von Inhalten zu verdoppeln.

Als Reaktion darauf sagt der Social-Media-Riese, dass er in Menschen und Technologie investiert, um Fehlinformationen und schädliche Inhalte zu stoppen.

Es sagte es hatte „mehr Inhaltsprüfer eingestellt, um Inhalte in unseren Apps in mehr als 70 Sprachen – einschließlich Swahili – zu überprüfen“. In den sechs Monaten bis zum 30. April meldete das Unternehmen die Entfernung von über 37.000 Inhalten, die gegen die Richtlinien zu Hassreden verstoßen, und weitere 42.000 wegen der Förderung von Gewalt und Aufstachelung auf Facebook und Instagram.

Meta sagte gegenüber Tech, dass es auch eng mit zivilgesellschaftlichen Interessengruppen wie Wahlkommissionen und Organisationen der Zivilgesellschaft zusammenarbeite, um zu sehen, „wie Facebook und Instagram ein positives Instrument für bürgerschaftliches Engagement sein können und welche Schritte sie unternehmen können, um bei der Nutzung unserer Plattformen sicher zu bleiben“.

Andere soziale Netzwerke wie Twitter und neuerdings TikTok stehen ebenfalls im Rampenlicht, weil sie keine proaktivere Rolle bei der Moderation von Inhalten und der Eindämmung der Verbreitung von Hassrede spielen, die angeblich die politischen Spannungen im Land schürt.

Erst letzten Monat wurde in einer Studie der Mozilla Foundation festgestellt, dass TikTok Desinformation in Kenia fördert. Mozilla kam zu dem Schluss, nachdem es 130 viel angesehene Videos überprüft hatte, in denen Inhalte voller Hassreden, Hetze und politischer Desinformation geteilt wurden – was der TikTok-Richtlinie gegen Hassreden und das Teilen diskriminierender, aufhetzender und synthetischer Inhalte widerspricht.

Im Fall von TikTok kam Mozilla zu dem Schluss, dass die Unkenntnis der Inhaltsmoderatoren mit dem politischen Kontext des Landes einer der Hauptgründe dafür war, dass einige aufrührerische Beiträge nicht entfernt wurden, was die Verbreitung von Desinformationen in der sozialen App ermöglichte.

Forderungen an die Social-Media-Plattformen, strengere Maßnahmen zu ergreifen, kommen, da im Vorfeld der Wahlen vom 9. August hitzige politische Diskussionen, abweichende Ansichten und offene Hassreden von Politikern und Bürgern gleichermaßen zunehmen.

tch-1-tech