Microsoft gibt Opfern von Deepfake-Pornos ein Tool an die Hand, mit dem sie Bilder aus der Bing-Suche entfernen können

Die Weiterentwicklung generativer KI-Tools hat ein neues Problem für das Internet geschaffen: die Verbreitung synthetischer Nacktbilder, die echten Menschen ähneln. Am Donnerstag unternahm Microsoft einen wichtigen Schritt, um Opfern von Rachepornos ein Tool an die Hand zu geben, mit dem die Suchmaschine Bing diese Bilder nicht mehr anzeigt.

Microsoft kündigte eine Partnerschaft mit StoppNCII, eine Organisation, die es Opfern von Rachepornos ermöglicht, einen digitalen Fingerabdruck dieser expliziten Bilder, ob echt oder nicht, auf ihrem Gerät zu erstellen. Die Partner von StopNCII verwenden dann diesen digitalen Fingerabdruck oder „Hash“, wie er technisch genannt wird, um das Bild von ihren Plattformen zu entfernen. Microsofts Bing schließt sich Facebook, Instagram, Threads, TikTok, Snapchat, Reddit, PornHub und OnlyFans an und arbeitet mit StopNCII zusammen, um seine digitalen Fingerabdrücke zu verwenden, um die Verbreitung von Rachepornos zu stoppen.

In einem Blog-BeitragMicrosoft hat nach eigenen Angaben bereits Maßnahmen gegen 268.000 explizite Bilder ergriffen, die in einem Pilotprojekt mit der Datenbank von StopNCII bis Ende August über die Bildersuche von Bing zurückgegeben wurden. Zuvor hatte Microsoft ein Tool zur direkten Meldung angeboten, das sich jedoch nach Angaben des Unternehmens als unzureichend erwiesen hat.

„Wir haben von Opfern, Experten und anderen Beteiligten die Bedenken gehört, dass die Meldung durch Benutzer allein möglicherweise nicht die nötige Wirkung hat oder dem Risiko, dass über die Suche auf Bilder zugegriffen werden kann, nicht angemessen Rechnung trägt“, erklärte Microsoft am Donnerstag in seinem Blogbeitrag.

Sie können sich vorstellen, wie viel schlimmer dieses Problem bei einer wesentlich beliebteren Suchmaschine wäre: Google.

Google Search bietet eigene Tools zum Melden und Entfernen expliziter Bilder aus den Suchergebnissen, wurde jedoch von ehemaligen Mitarbeitern und Opfern dafür kritisiert, dass das Unternehmen nicht mit StopNCII zusammenarbeitet, heißt es in einer Kabelgebundene UntersuchungSeit 2020 haben Google-Nutzer in Südkorea 170.000 Such- und YouTube-Links mit unerwünschten sexuellen Inhalten gemeldet, berichtete Wired.

Das Problem der künstlichen Nacktheit durch Deepfakes ist bereits weit verbreitet. Die Tools von StopNCII funktionieren nur für Personen über 18 Jahren, aber „Entkleidungs“-Seiten sind bereits Probleme für High-School-Schüler schaffen im ganzen Land. Leider gibt es in den Vereinigten Staaten kein Gesetz gegen KI-Deepfake-Pornos, um irgendjemanden zur Verantwortung zu ziehen, sodass das Land auf einen Flickenteppich aus staatlichen und lokalen Gesetzen zurückgreift, um das Problem anzugehen.

Die Staatsanwälte von San Francisco kündigten im August eine Klage an, um 16 der am meisten „entkleidenden“ Websites vom Netz zu nehmen. Laut einer Tracker für Deepfake-Porno-Gesetze Laut einer von Wired erstellten Studie haben 23 US-Bundesstaaten Gesetze zum Umgang mit nicht einvernehmlichen Deepfakes verabschiedet, während neun Bundesstaaten entsprechende Gesetzesvorschläge abgelehnt haben.

tch-1-tech