KI-generierte Bilder von Taylor Swift ist kürzlich online aufgetaucht. Microsoft-Tools könnte angeblich mit den gefälschten Taylor-Swift-Bildern in Verbindung stehen. In einem Bericht von 404 Media wird behauptet, dass Mitglieder der „Telegram-Gruppe, die sich missbräuchlichen Bildern von Frauen widmet“ das KI-gestützte Bilderstellungstool von Microsoft nutzten, um gefälschte Fotos von Swift zu erstellen.
Microsoft hat Bing Image Creator kürzlich von Designer in Image Creator umbenannt. Im 404 Media-Bericht wurde nicht angegeben, welches Tool von Mitgliedern der Telegram-Gruppe verwendet wurde, aber es besteht eine gute Chance, dass es sich um Bing Image Creator/Image Creator von Designer handelte. Im Gegensatz zu konventionelleren manipulierten Bildern, die Prominenten in der Vergangenheit Sorgen bereiteten, scheinen die Swift-Bilder mit einem Bildgenerator mit künstlicher Intelligenz erstellt worden zu sein, der aus einer schriftlichen Aufforderung sofort neue Bilder erstellen kann.
Was Satya Nadella gesagt hat
Microsoft-CEO Satya Nadella besprach die Situation mit NBC Nightly News in einem Interview. Er sprach darüber, was getan werden kann, um die KI zu steuern und Missbrauch vorzubeugen. Nadella sagte in seinem Interview: „Ich würde zwei Dinge sagen. Erstens komme ich, glaube ich, noch einmal auf unsere Verantwortung zurück, nämlich auf all die Leitplanken, die wir rund um die Technologie setzen müssen, damit sie sicherer ist.“ Inhalte, die produziert werden. Und es gibt viel zu tun und es wird dort viel getan. Und das können wir tun, insbesondere wenn es Gesetze, Strafverfolgungs- und Technologieplattformen gibt, die zusammenkommen können. Ich denke, wir können viel mehr regieren als wir denken – wir geben uns selbst Anerkennung dafür.“
Die meisten kommerziellen KI-Bildgeneratoren verfügen über Schutzmaßnahmen, um Missbrauch zu verhindern, aber Kommentatoren in anonymen Message Boards diskutierten Taktiken zur Umgehung der Moderation, insbesondere beim Text-zu-Bild-Tool von Microsoft Designer, sagte Decker.
Wie die Bilder viral gingen
Sexuell eindeutige und beleidigende gefälschte Bilder von Taylor Swift verbreiteten sich letzte Woche auf der Social-Media-Plattform X, ehemals Twitter. Diese Deepfake-Pornobilder von Taylor Swift haben sie zum berühmtesten Opfer einer Geißel gemacht, die Technologieplattformen und Anti-Missbrauchsgruppen nur schwer lösen können. Die Swift-Bilder seien Berichten zufolge erstmals im Rahmen einer laufenden Kampagne entstanden, die letztes Jahr auf Randplattformen begann, um sexuell eindeutige KI-generierte Bilder berühmter Frauen zu produzieren, sagte Ben Decker, Gründer der Threat-Intelligence-Gruppe Memetica, gegenüber der Nachrichtenagentur AP. Eines der Swift-Bilder, das viral ging, soll bereits am 6. Januar online aufgetaucht sein. Die Forscher fanden mindestens ein paar Dutzend einzigartige, von der KI generierte Bilder. Die am häufigsten geteilten Bilder hatten mit Fußball zu tun und zeigten einen bemalten oder blutigen Swift, der sie objektivierte und in einigen Fällen ihrer Deepfake-Persönlichkeit gewaltsamen Schaden zufügte.
Microsoft hat Bing Image Creator kürzlich von Designer in Image Creator umbenannt. Im 404 Media-Bericht wurde nicht angegeben, welches Tool von Mitgliedern der Telegram-Gruppe verwendet wurde, aber es besteht eine gute Chance, dass es sich um Bing Image Creator/Image Creator von Designer handelte. Im Gegensatz zu konventionelleren manipulierten Bildern, die Prominenten in der Vergangenheit Sorgen bereiteten, scheinen die Swift-Bilder mit einem Bildgenerator mit künstlicher Intelligenz erstellt worden zu sein, der aus einer schriftlichen Aufforderung sofort neue Bilder erstellen kann.
Was Satya Nadella gesagt hat
Microsoft-CEO Satya Nadella besprach die Situation mit NBC Nightly News in einem Interview. Er sprach darüber, was getan werden kann, um die KI zu steuern und Missbrauch vorzubeugen. Nadella sagte in seinem Interview: „Ich würde zwei Dinge sagen. Erstens komme ich, glaube ich, noch einmal auf unsere Verantwortung zurück, nämlich auf all die Leitplanken, die wir rund um die Technologie setzen müssen, damit sie sicherer ist.“ Inhalte, die produziert werden. Und es gibt viel zu tun und es wird dort viel getan. Und das können wir tun, insbesondere wenn es Gesetze, Strafverfolgungs- und Technologieplattformen gibt, die zusammenkommen können. Ich denke, wir können viel mehr regieren als wir denken – wir geben uns selbst Anerkennung dafür.“
Die meisten kommerziellen KI-Bildgeneratoren verfügen über Schutzmaßnahmen, um Missbrauch zu verhindern, aber Kommentatoren in anonymen Message Boards diskutierten Taktiken zur Umgehung der Moderation, insbesondere beim Text-zu-Bild-Tool von Microsoft Designer, sagte Decker.
Wie die Bilder viral gingen
Sexuell eindeutige und beleidigende gefälschte Bilder von Taylor Swift verbreiteten sich letzte Woche auf der Social-Media-Plattform X, ehemals Twitter. Diese Deepfake-Pornobilder von Taylor Swift haben sie zum berühmtesten Opfer einer Geißel gemacht, die Technologieplattformen und Anti-Missbrauchsgruppen nur schwer lösen können. Die Swift-Bilder seien Berichten zufolge erstmals im Rahmen einer laufenden Kampagne entstanden, die letztes Jahr auf Randplattformen begann, um sexuell eindeutige KI-generierte Bilder berühmter Frauen zu produzieren, sagte Ben Decker, Gründer der Threat-Intelligence-Gruppe Memetica, gegenüber der Nachrichtenagentur AP. Eines der Swift-Bilder, das viral ging, soll bereits am 6. Januar online aufgetaucht sein. Die Forscher fanden mindestens ein paar Dutzend einzigartige, von der KI generierte Bilder. Die am häufigsten geteilten Bilder hatten mit Fußball zu tun und zeigten einen bemalten oder blutigen Swift, der sie objektivierte und in einigen Fällen ihrer Deepfake-Persönlichkeit gewaltsamen Schaden zufügte.