Dem Bericht zufolge haben Unternehmen wie ElevenLabs Tools eingeführt, die KI zur Erstellung von Stimmen nutzen. Das hat Newsguard herausgefunden, ein Unternehmen, das Fake News im Internet überwacht TikTok-Videos verwendeten falsche Stimmen von Leuten wie dem ehemaligen US-Präsidenten Barack Obama und Oprah Winfrey. Obwohl TikTok beliebt ist, heißt es in dem Bericht auch, dass Plattformen beliebt sind Instagram, Facebook und YouTube werden auch zur Verbreitung gefälschter sprachbasierter Videos genutzt. Berichten zufolge ist die Zahl der Videos derzeit geringer, doch Experten befürchten, dass dies zu einer Waffe werden könnte, insbesondere da die US-Präsidentschaftswahlen im Jahr 2024 stattfinden sollen.
Was TikTok zu diesem Thema zu sagen hat
Videos, die KI-generierte Inhalte verwenden, müssen eine Kennzeichnung haben, die eindeutig darauf hinweist. Die Social-Media-Plattform gab an, mehrere Konten und Videos wegen Verstößen gegen ihre Richtlinien entfernt zu haben, darunter auch das, in dem Obamas Stimme verwendet wurde. „TikTok ist die erste Plattform, die YouTubern ein Tool zur Kennzeichnung von KI-generierten Inhalten bietet, und Gründungsmitglied eines neuen Kodex branchenspezifischer Best Practices zur Förderung des verantwortungsvollen Umgangs mit synthetischen Medien“, sagte Jamie Favazza, eine Sprecherin von TikTok. Newsguard stellte jedoch fest, dass die Beschriftungen in Videos fehlten, in denen gefälschte Stimmen verwendet wurden.
Dem Bericht zufolge hat YouTube die Verwendung von KI-generierten Inhalten für politische Anzeigen verboten. Auch andere Werbetreibende müssen sicherstellen, dass ihre Anzeigen mit Etiketten versehen sind, die darauf hinweisen, dass KI zur Erstellung von Inhalten verwendet wurde. Meta – die Muttergesellschaft von Facebook und Instagram – verfügt außerdem über ein Toolkit zur Faktenprüfung, das eine Kennzeichnung hinzufügt, wenn ein Video verändert wurde oder keine KI verwendet.