Das Oversight Board von Meta untersucht explizite, von der KI generierte Bilder, die auf Instagram und Facebook gepostet werden

Das Oversight Board, der halbunabhängige politische Rat von Meta, richtet seine Aufmerksamkeit darauf, wie die sozialen Plattformen des Unternehmens mit expliziten, KI-generierten Bildern umgehen. Am Dienstag kündigte das Unternehmen Untersuchungen zu zwei getrennten Fällen darüber an, wie Instagram in Indien und Facebook in den USA mit KI-generierten Bildern von Persönlichkeiten des öffentlichen Lebens umgingen, nachdem die Systeme von Meta die expliziten Inhalte nicht erkannten und nicht darauf reagierten.

In beiden Fällen haben die Websites die Medien mittlerweile abgeschaltet. Laut einer an Tech gesendeten E-Mail-Meta nennt der Vorstand die Personen, auf die die KI-Bilder abzielen, nicht namentlich, „um geschlechtsspezifische Belästigung zu vermeiden“.

Der Vorstand nimmt Fälle zu Metas Moderationsentscheidungen auf. Benutzer müssen sich zunächst bei Meta über einen Moderationsschritt informieren, bevor sie sich an das Oversight Board wenden. Der Ausschuss wird seine vollständigen Ergebnisse und Schlussfolgerungen in Zukunft veröffentlichen.

Die Fälle

Zur Beschreibung des ersten Falles sagte das Gremium, dass ein Nutzer einen von der KI generierten Akt einer Persönlichkeit des öffentlichen Lebens aus Indien auf Instagram als Pornografie gemeldet habe. Das Bild wurde von einem Konto gepostet, das ausschließlich von KI erstellte Bilder von indischen Frauen veröffentlicht, und die Mehrheit der Benutzer, die auf diese Bilder reagieren, stammen aus Indien.

Meta konnte das Bild nach der ersten Meldung nicht entfernen und das Ticket für die Meldung wurde automatisch geschlossen, nachdem das Unternehmen die Meldung 48 Stunden lang nicht weiter geprüft hatte. Als der ursprüngliche Beschwerdeführer gegen die Entscheidung Berufung einlegte, wurde der Bericht erneut automatisch geschlossen, ohne dass Meta dies beaufsichtigte. Mit anderen Worten: Nach zwei Meldungen blieb das explizite KI-generierte Bild auf Instagram.

Der Nutzer legte daraufhin schließlich Berufung beim Vorstand ein. Das Unternehmen hat zu diesem Zeitpunkt lediglich Maßnahmen ergriffen, um die anstößigen Inhalte zu entfernen und das Bild wegen Verstoßes gegen seine Community-Standards zu Mobbing und Belästigung zu entfernen.

Der zweite Fall bezieht sich auf Facebook, wo ein Benutzer in einer Gruppe, die sich auf KI-Kreationen konzentrierte, ein explizites, KI-generiertes Bild veröffentlichte, das einer US-amerikanischen Persönlichkeit des öffentlichen Lebens ähnelte. In diesem Fall entfernte das soziale Netzwerk das Bild, da es zuvor von einem anderen Benutzer gepostet worden war, und Meta hatte es einer Media Matching Service Bank in der Kategorie „abwertend sexualisiertes Photoshop oder Zeichnungen“ hinzugefügt.

Als Tech fragte, warum der Vorstand einen Fall ausgewählt habe, in dem das Unternehmen ein explizites, von KI generiertes Bild erfolgreich entfernt habe, sagte der Vorstand, dass er Fälle auswähle, „die sinnbildlich für umfassendere Probleme auf den Plattformen von Meta sind“. Es fügte hinzu, dass diese Fälle dem Beirat dabei helfen, die globale Wirksamkeit der Richtlinien und Prozesse von Meta für verschiedene Themen zu prüfen.

„Wir wissen, dass Meta Inhalte in einigen Märkten und Sprachen schneller und effektiver moderieren kann als in anderen. Indem wir einen Fall aus den USA und einen aus Indien heranziehen, wollen wir prüfen, ob Meta alle Frauen weltweit auf faire Weise schützt“, sagte Helle Thorning-Schmidt, Co-Vorsitzende des Aufsichtsgremiums, in einer Erklärung.

„Der Vorstand hält es für wichtig zu untersuchen, ob die Richtlinien und Durchsetzungspraktiken von Meta dieses Problem wirksam angehen.“

Das Problem von Deep-Fake-Pornos und geschlechtsspezifischer Online-Gewalt

Einige – nicht alle – generative KI-Tools wurden in den letzten Jahren erweitert, um Benutzern die Generierung von Pornos zu ermöglichen. Wie Tech zuvor berichtete, versuchen Gruppen wie Unstable Diffusion, KI-Pornos mit unklaren ethischen Grundsätzen und voreingenommenen Daten zu monetarisieren.

Auch in Regionen wie Indien sind Deepfakes zu einem Problem geworden. Letztes Jahr erschien ein Bericht der BBC stellte fest, dass die Zahl der Deepfake-Videos indischer Schauspielerinnen in letzter Zeit stark angestiegen ist. Daten schlägt vor dass Frauen häufiger Gegenstand von Deepfake-Videos sind.

Anfang des Jahres äußerte der stellvertretende IT-Minister Rajeev Chandrasekhar seine Unzufriedenheit mit dem Ansatz der Technologieunternehmen zur Bekämpfung von Deepfakes.

„Wenn eine Plattform denkt, dass sie davonkommen kann, ohne Deepfake-Videos zu entfernen, oder einfach nur locker damit umgeht, haben wir die Macht, unsere Bürger zu schützen, indem wir solche Plattformen blockieren“, sagte Chandrasekhar damals in einer Pressekonferenz.

Während Indien darüber nachgedacht hat, spezifische Deepfake-bezogene Regeln in das Gesetz aufzunehmen, ist noch nichts in Stein gemeißelt.

Zwar gibt es im Land gesetzliche Bestimmungen zur Meldung geschlechtsspezifischer Gewalt im Internet, Experten weisen jedoch darauf hin Der Prozess könnte langwierig sein, und es gibt oft wenig Unterstützung. In einer im letzten Jahr veröffentlichten Studie hat die indische Interessenvertretung IT für Veränderung stellte fest, dass Gerichte in Indien über solide Prozesse zur Bekämpfung geschlechtsspezifischer Gewalt im Internet verfügen müssen und diese Fälle nicht trivialisieren dürfen.

Aparajita Bharti, Mitbegründerin von The Quantum Hub, einem in Indien ansässigen Beratungsunternehmen für öffentliche Politik, sagte, dass es Grenzen für KI-Modelle geben sollte, um zu verhindern, dass sie explizite Inhalte erstellen, die Schaden anrichten.

„Das Hauptrisiko der generativen KI besteht darin, dass die Menge solcher Inhalte zunimmt, da solche Inhalte einfach und mit einem hohen Grad an Komplexität generiert werden können. Daher müssen wir zunächst die Erstellung solcher Inhalte verhindern, indem wir KI-Modelle trainieren, um die Ausgabe zu begrenzen, falls die Absicht, jemandem Schaden zuzufügen, bereits klar ist. Wir sollten auch eine Standardkennzeichnung einführen, um die Erkennung zu erleichtern“, sagte Bharti per E-Mail zu Tech.

Derzeit gibt es weltweit nur wenige Gesetze, die die Produktion und Verbreitung von mit KI-Tools generierten Pornos regeln. Eine Handvoll US-Bundesstaaten Es gibt Gesetze gegen Deepfakes. Das Vereinigte Königreich hat diese Woche ein Gesetz dazu eingeführt die Erstellung sexuell eindeutiger KI-gestützter Bilder unter Strafe stellen.

Metas Antwort und die nächsten Schritte

Als Reaktion auf die Fälle des Aufsichtsgremiums sagte Meta, dass beide Inhalte entfernt wurden. Allerdings ging das Social-Media-Unternehmen nicht auf die Tatsache ein, dass es nach ersten Berichten von Nutzern versäumt hatte, Inhalte auf Instagram zu entfernen, und auch nicht darauf, wie lange die Inhalte auf der Plattform verfügbar waren.

Meta sagte, dass es eine Mischung aus künstlicher Intelligenz und menschlicher Überprüfung verwendet, um sexuell anzügliche Inhalte zu erkennen. Der Social-Media-Riese sagte, dass er diese Art von Inhalten nicht an Orten wie Instagram Explore oder Reels-Empfehlungen empfiehlt.

Das Aufsichtsgremium hat gesucht öffentliche Kommentare – mit einer Frist bis zum 30. April – zu dem Thema, das sich mit Schäden durch Deep-Fake-Pornos, kontextbezogenen Informationen über die Verbreitung solcher Inhalte in Regionen wie den USA und Indien und möglichen Fallstricken des Meta-Ansatzes bei der Erkennung von KI-generierten expliziten Bildern beschäftigt.

Der Vorstand wird die Fälle und öffentlichen Kommentare untersuchen und die Entscheidung in einigen Wochen auf der Website veröffentlichen.

Diese Fälle deuten darauf hin, dass große Plattformen immer noch mit älteren Moderationsprozessen zu kämpfen haben, während KI-gestützte Tools es Benutzern ermöglichen, schnell und einfach verschiedene Arten von Inhalten zu erstellen und zu verteilen. Unternehmen wie Meta experimentieren mit Tools, die KI zur Inhaltsgenerierung nutzen, und unternehmen teilweise Anstrengungen, solche Bilder zu erkennen. Allerdings finden Täter immer wieder Wege, diesen Erkennungssystemen zu entkommen und problematische Inhalte auf sozialen Plattformen zu veröffentlichen.

tch-1-tech