Aufsichtsgremium fordert Meta auf, seine Richtlinien für KI-generierte explizite Bilder zu verfeinern

Nach Untersuchungen zum Umgang von Meta mit KI-generierten expliziten Bildern fordert das halbunabhängige Beobachtergremium des Unternehmens, das Oversight Board, das Unternehmen nun auf, seine Richtlinien für solche Bilder zu überarbeiten. Das Gremium möchte, dass Meta die verwendete Terminologie von „abwertend“ in „nicht einvernehmlich“ ändert und seine Richtlinien für solche Bilder vom Abschnitt „Mobbing und Belästigung“ in den Abschnitt „Gemeinschaftsstandards für sexuelle Ausbeutung“ verschiebt.

Derzeit basieren Metas Richtlinien zu expliziten Bildern, die von KI-generierten Systemen erzeugt werden, auf einer Regel zu „abwertend sexualisiertem Photoshop“ im Abschnitt zu Mobbing und Belästigung. Das Gremium forderte Meta außerdem auf, das Wort „Photoshop“ durch einen allgemeinen Begriff für manipulierte Medien zu ersetzen.

Darüber hinaus verbietet Meta nicht einvernehmliche Bilder, sofern sie „nicht kommerziell sind oder in einem privaten Rahmen erstellt wurden“. Das Gremium schlug vor, dass diese Klausel nicht zwingend vorgeschrieben sein sollte, um von KI erstellte oder ohne Zustimmung manipulierte Bilder zu entfernen oder zu verbieten.

Diese Empfehlungen folgen auf zwei Aufsehen erregende Fälle, bei denen Meta durch die Veröffentlichung expliziter, KI-generierter Bilder von Persönlichkeiten des öffentlichen Lebens auf Instagram und Facebook in Schwierigkeiten geriet.

Einer dieser Fälle betraf ein von einer KI generiertes Nacktbild einer indischen Persönlichkeit des öffentlichen Lebens, das auf Instagram gepostet wurde. Mehrere Benutzer meldeten das Bild, aber Meta entfernte es nicht und schloss das Ticket sogar innerhalb von 48 Stunden ohne weitere Überprüfung. Benutzer legten gegen diese Entscheidung Berufung ein, aber das Ticket wurde erneut geschlossen. Das Unternehmen handelte erst, nachdem sich das Oversight Board des Falls annahm, den Inhalt entfernte und das Konto sperrte.

Das andere KI-generierte Bild ähnelte einer Persönlichkeit des öffentlichen Lebens aus den USA und wurde auf Facebook gepostet. Meta hatte das Bild aufgrund von Medienberichten bereits in seinem Media Matching Service (MMS)-Repository (einer Datenbank mit Bildern, die gegen die Nutzungsbedingungen verstoßen und mit der ähnliche Bilder erkannt werden können) und entfernte das Bild schnell, als ein anderer Benutzer es auf Facebook hochlud.

Bemerkenswerterweise hat Meta das Bild der indischen Persönlichkeit des öffentlichen Lebens erst auf Drängen des Aufsichtsgremiums zur MMS-Datenbank hinzugefügt. Das Unternehmen hatte dem Gremium offenbar vorher mitgeteilt, dass das Bild nicht im Archiv vorhanden sei, da es keine Medienberichte zu dem Thema gab.

„Das ist besorgniserregend, weil viele Opfer von Deepfakes intimen Bildern nicht im Rampenlicht der Öffentlichkeit stehen und entweder gezwungen sind, die Verbreitung ihrer nicht einvernehmlichen Darstellungen zu akzeptieren oder jeden Fall zu melden“, heißt es in der Mitteilung des Gremiums.

Breakthrough Trust, eine indische Organisation, die sich für die Reduzierung geschlechtsbezogener Gewalt im Internet einsetzt, wies darauf hin, dass diese Probleme und die Richtlinien von Meta kulturelle Auswirkungen haben. In Kommentaren, die dem Oversight Board vorgelegt wurden, sagte Breakthrough, dass nicht einvernehmliche Bilder oft als Identitätsdiebstahl und nicht als geschlechtsbezogene Gewalt verharmlost werden.

„Opfer werden oft sekundär schikaniert, wenn sie solche Fälle bei Polizeistationen/Gerichten melden („Warum hast du dein Bild veröffentlicht usw.?“, selbst wenn es nicht ihre Bilder sind, wie etwa Deepfakes). Sobald das Bild im Internet ist, geht es sehr schnell über die Quellplattform hinaus, und es einfach auf der Quellplattform zu entfernen, reicht nicht aus, da es sich schnell auf andere Plattformen ausbreitet“, schrieb Barsha Charkorborty, Medienchefin der Organisation, an das Oversight Board.

In einem Telefonat erklärte Charkorborty gegenüber Tech, dass Benutzer oft nicht wüssten, dass ihre Meldungen innerhalb von 48 Stunden automatisch als „gelöst“ markiert wurden und Meta nicht für alle Fälle die gleiche Zeitleiste anwenden sollte. Außerdem schlug sie vor, dass das Unternehmen auch daran arbeiten sollte, das Bewusstsein der Benutzer für solche Probleme zu schärfen.

Devika Malik, eine Expertin für Plattformpolitik, die zuvor im Südasien-Politikteam von Meta gearbeitet hat, erklärte Tech Anfang des Jahres, dass Plattformen sich bei der Entfernung nicht einvernehmlicher Bilder weitgehend auf die Meldung von Benutzern verlassen, was bei der Bearbeitung von KI-generierten Medien möglicherweise kein zuverlässiger Ansatz ist.

„Dadurch wird dem betroffenen Benutzer eine unfaire Last auferlegt, seine Identität und die fehlende Zustimmung nachzuweisen (wie dies bei der Richtlinie von Meta der Fall ist). Bei synthetischen Medien kann dies fehleranfälliger werden, und die Zeit, die zum Erfassen und Überprüfen dieser externen Signale benötigt wird, ermöglicht es dem Inhalt, schädliche Wirkung zu erzielen“, sagte Malik.

Aparajita Bharti, Gründungspartnerin des in Delhi ansässigen Think Tanks The Quantum Hub (TQH), meinte, Meta sollte seinen Benutzern die Möglichkeit geben, bei der Meldung von Inhalten mehr Kontext anzugeben, da ihnen die unterschiedlichen Kategorien von Regelverstößen gemäß der Meta-Richtlinie möglicherweise nicht bewusst seien.

„Wir hoffen, dass Meta über das endgültige Urteil hinausgeht [of the Oversight Board] um flexible und benutzerorientierte Kanäle für die Meldung von Inhalten dieser Art zu ermöglichen“, sagte sie.

„Wir sind uns bewusst, dass von den Benutzern kein perfektes Verständnis der feinen Unterschiede zwischen den verschiedenen Berichtsarten erwartet werden kann, und plädieren für Systeme, die verhindern, dass echte Probleme aufgrund formaler Details der Richtlinien zur Meta-Inhaltsmoderation durchs Raster fallen.“

tch-1-tech