YouTube geht hart gegen KI-generierte Inhalte vor, die verstorbene Kinder oder Opfer von Straftaten „realistisch simulieren“.

YouTube erlaubt jetzt die Monetarisierung von Videos mit stillender Nacktheit

YouTube ist Aktualisierung Seine Belästigungs- und Cybermobbing-Richtlinien sollen gegen Inhalte vorgehen, die verstorbene Minderjährige oder Opfer tödlicher oder gewalttätiger Ereignisse, die ihren Tod beschreiben, „realistisch simulieren“. Die zu Google gehörende Plattform gibt bekannt, dass sie ab dem 16. Januar mit der Löschung solcher Inhalte beginnen wird.

Die Richtlinienänderung erfolgt wie bei einigen Erstellern von echten Kriminalinhalten Verwenden von KI, um das Abbild wiederherzustellen von verstorbenen oder vermissten Kindern. In diesen beunruhigenden Fällen nutzen Menschen KI, um diesen minderjährigen Opfern von aufsehenerregenden Fällen eine kindliche „Stimme“ zu geben, um ihren Tod zu beschreiben.

In den letzten Monaten haben Content-Ersteller nutzte KI, um zahlreiche hochkarätige Fälle zu erzählen, darunter die Entführung und den Tod des britischen zweijährigen James Bulger, wie von der berichtet Washington Post. Es gibt auch ähnliche KI-Erzählungen darüber Madeleine McCann, eine britische Dreijährige, die aus einem Resort verschwunden ist, und Gabriel Fernández, ein achtjähriger Junge, der es war gefoltert und von seiner Mutter und ihrem Freund in Kalifornien ermordet.

YouTube wird Inhalte entfernen, die gegen die neuen Richtlinien verstoßen, und Nutzer, die eine Verwarnung erhalten, können eine Woche lang keine Videos, Livestreams oder Storys hochladen. Nach drei Verwarnungen wird der Kanal des Nutzers dauerhaft von YouTube entfernt.

Die neuen Änderungen erfolgen fast zwei Monate, nachdem YouTube neue Richtlinien zur verantwortungsvollen Offenlegung von KI-Inhalten sowie neue Tools zur Anforderung der Entfernung von Deepfakes eingeführt hat. Eine der Änderungen erfordert, dass Benutzer offenlegen, wenn sie veränderte oder synthetische Inhalte erstellt haben, die realistisch erscheinen. Das Unternehmen warnte davor, dass Nutzer, die ihre Nutzung von KI nicht ordnungsgemäß offenlegen, mit „Entfernung von Inhalten, Ausschluss aus dem YouTube-Partnerprogramm oder anderen Strafen“ rechnen müssen.

Darüber hinaus wies YouTube damals darauf hin, dass einige KI-Inhalte möglicherweise entfernt werden, wenn sie zur Darstellung „realistischer Gewalt“ verwendet werden, selbst wenn sie gekennzeichnet sind.

Im September 2023 führte TikTok ein Tool ein, das es Erstellern ermöglicht, ihre KI-generierten Inhalte zu kennzeichnen, nachdem die soziale App ihre Richtlinien aktualisiert hatte, um von Erstellern zu verlangen, offenzulegen, wenn sie synthetische oder manipulierte Medien veröffentlichen, die realistische Szenen zeigen. Die Richtlinie von TikTok erlaubt es, realistische KI-Bilder zu entfernen, die nicht offengelegt werden.

tch-1-tech