Meta enthüllt Plan zur Identifizierung „gefälschter“ KI-generierter Bilder auf Facebook und Instagram: Alle Details

Meta enthuellt Plan zur Identifizierung „gefaelschter KI generierter Bilder auf Facebook
Deepfake-Videos und -Bilder sind auf dem Vormarsch, da KI immer mehr zum Mainstream wird. Sowohl in Indien als auch in anderen Ländern nehmen KI-generierte Inhalte zu und damit auch deren Missbrauch. Wenn man das im Hinterkopf behält, Meta — die Muttergesellschaft von Facebook, Instagram – hat seine Pläne bekannt gegeben, KI-generierte Bilder zu identifizieren und zu kennzeichnen. Nick CleggPräsident, WeltgeschehenMeta glaubt, dass generative KI-Tools große Chancen bieten und dass es sowohl möglich als auch notwendig ist, dass diese Technologien auf transparente und verantwortungsvolle Weise entwickelt werden. „Deshalb möchten wir den Menschen helfen, zu wissen, wann fotorealistische Bilder mithilfe von KI erstellt wurden.“ und warum wir auch offen über die Grenzen des Möglichen sprechen“, sagte er Clegg in einem Blogbeitrag.
Wenn fotorealistische Bilder erstellt werden mit Meta-KI Das Unternehmen erklärte, dass es verschiedene Dinge unternimmt, um sicherzustellen, dass die Leute wissen, dass KI im Spiel ist, darunter das Anbringen sichtbarer Markierungen, die Sie auf den Bildern sehen können, sowie unsichtbare Wasserzeichen und Metadaten, die in Bilddateien eingebettet sind. „Die Verwendung unsichtbarer Wasserzeichen und Metadaten auf diese Weise verbessert sowohl die Robustheit dieser unsichtbaren Markierungen als auch hilft anderen Plattformen, sie zu identifizieren“, sagte Clegg.
Darüber hinaus fügt Meta auch eine Funktion hinzu, mit der Benutzer offenlegen können, wenn sie KI-generierte Videos oder Audiodaten teilen, damit diese mit einem Label versehen werden können. Meta verlangt außerdem, dass Nutzer dieses Offenlegungs- und Kennzeichnungstool verwenden, wenn sie organische Inhalte mit einem fotorealistischen Video oder realistisch klingenden Audio veröffentlichen, das digital erstellt oder verändert wurde, und wir können Strafen verhängen, wenn sie dies nicht tun. „Wenn wir feststellen, dass digital erstellte oder veränderte Bild-, Video- oder Audioinhalte ein besonders hohes Risiko bergen, die Öffentlichkeit in einer wichtigen Angelegenheit materiell zu täuschen, können wir gegebenenfalls eine auffälligere Kennzeichnung hinzufügen, damit die Menschen mehr Informationen und Kontext haben.“ sagte Clegg.

toi-tech