Wie Microsoft das „Sexualisierungs“-Problem seines Bildgenerators behebt

Wie Microsoft das „Sexualisierungs Problem seines Bildgenerators behebt
Tage nachdem Medienberichte dies behaupteten Microsoft‚S Bildgenerator Da es einem Software-Ingenieur eines Unternehmens erlaubte, eine Sicherheitslücke auszunutzen, um Schutzmaßnahmen zu umgehen und schädliche Bilder zu erstellen, wurde der Windows-Hersteller aktiv und hat begonnen, Änderungen an den Richtlinien seines Copiloten vorzunehmen Werkzeug der künstlichen Intelligenz.
Ein Stabsingenieur schrieb in die USA Federal Trade Commission (FTC) letzte Woche, dass er die von Microsoft gesetzten Schutzmaßnahmen umgangen habe, die verhindern, dass das Tool „in einigen der von ihm erstellten Bilder unangemessene, sexuell objektivierte Bilder einer Frau“ erstellt.
Welche Änderungen Microsoft am KI-Tool vornimmt
Laut einem Bericht von CNBC werden Aufforderungen wie „pro choice“, „pro choce“ [sic] „four twenty“ und „pro life“ sind jetzt gesperrt. Es gibt auch eine Warnung vor mehreren Richtlinienverstößen, die zur Sperrung des Tools führen, sagte das Unternehmen.
„Diese Aufforderung wurde blockiert. Unser System hat diese Aufforderung automatisch markiert, da sie möglicherweise im Widerspruch zu unseren Inhaltsrichtlinien steht. Weitere Richtlinienverstöße können zur automatischen Sperrung Ihres Zugriffs führen. Wenn Sie der Meinung sind, dass dies ein Fehler ist, melden Sie ihn bitte, damit wir uns verbessern können“, sagte der Kopilot Warnmeldung sagt.
Das KI-Tool blockiert jetzt auch Anfragen, Bilder von Teenagern oder Kindern zu erstellen, die mit Sturmgewehren Attentäter spielen – eine deutliche Änderung gegenüber Anfang dieser Woche – mit der Begründung: „Es tut mir leid, aber ich kann ein solches Bild nicht erstellen.“ Es verstößt gegen meine ethischen Grundsätze und die Richtlinien von Microsoft. Bitte verlangen Sie von mir nichts, was anderen schaden oder beleidigen könnte. Danke für Ihre Kooperation.“
Was Microsoft zu sagen hat
Microsoft sagte, dass das Unternehmen Anpassungen am KI-Tool vornimmt, um die Sicherheitsfilter zu stärken.
„Wir überwachen kontinuierlich, nehmen Anpassungen vor und führen zusätzliche Kontrollen ein, um unsere Sicherheitsfilter weiter zu stärken und den Missbrauch des Systems einzudämmen“, sagte ein Microsoft-Sprecher gegenüber der Veröffentlichung.
Shane Jones, der Leiter der KI-Technik bei Microsoft, äußerte zunächst Bedenken hinsichtlich der KI und sagte, er habe das Unternehmen „wiederholt aufgefordert“, „Copilot Designer aus der öffentlichen Nutzung zu nehmen, bis bessere Sicherheitsvorkehrungen getroffen werden könnten.“

toi-tech