Die Muttergesellschaft von Facebook und Instagram wird von Robotern erstellte Videos, Fotos und Audiodaten aufspüren und kennzeichnen
LESEN SIE MEHR: Italienischer Premierminister verlangt 100.000 Euro für Deepfake-Pornos
Die neue Richtlinie weitet diese Rasterfahndung auf Videos aus, die zeigen, wie jemand „etwas tut, was er nicht getan hat“, sowie auf Fotos und Audio. Es ist jedoch entspannter als der alte Ansatz, da die betreffenden Inhalte weiterhin online bleiben dürfen. Die neue Richtlinie weitet diese Rasterfahndung auf Videos aus, die zeigen, wie jemand „etwas tut, was er nicht getan hat“, sowie auf Fotos und Audio. Es ist jedoch entspannter als der alte Ansatz, da die betreffenden Inhalte weiterhin online bleiben dürfen. „Unsere Richtlinie zu manipulierten Medien wurde im Jahr 2020 verfasst, als realistische KI-generierte Inhalte selten waren und die übergreifende Sorge um Videos galt“, so der Unternehmen erklärt. „In den letzten vier Jahren und insbesondere im letzten Jahr haben Menschen andere Arten realistischer KI-generierter Inhalte wie Audio und Fotos entwickelt, und diese Technologie entwickelt sich schnell weiter.“ Seit Anfang dieses Jahres haben US-Regulierungsbehörden eine angekündigt Verbot von KI-generierten „Robocalls“, nachdem Einwohner von New Hampshire von einem computergenerierten Joe Biden kontaktiert wurden, der sie dazu drängte, die Vorwahlen der Demokraten im Bundesstaat auszusetzen, während das Weiße Haus versprochen hat, sich mit dem Problem nicht einvernehmlicher Pornos „zu befassen“. nachdem gefälschte Nacktfotos von Popstar Taylor Swift in den sozialen Medien verbreitet wurden. Auch der frühere US-Präsident Donald Trump äußerte sich zu diesem Thema und warf US-Medien vor, KI zu nutzen, um ihn auf Fotos dicker erscheinen zu lassen. Meta ist nicht das einzige Big-Tech-Unternehmen, das künstliche Inhalte mit Etiketten bekämpft. Seit letztem Jahr fordert TikTok Benutzer auf, ihre eigenen KI-generierten Inhalte zu kennzeichnen, während anderen Benutzern die Möglichkeit gegeben wird, Inhalte zu melden, von denen sie vermuten, dass sie KI-generiert sind. YouTube hat letzten Monat ein ähnliches ehrenbasiertes System eingeführt.
LESEN SIE MEHR: Papst warnt vor „perversen“ Deepfakes
Angesichts der entscheidenden Wahlen, die im Juni in der EU und im November in den USA stattfinden, haben die Gesetzgeber Technologiefirmen dazu gedrängt, gegen von KI erstellte „Deepfakes“ vorzugehen, die ihrer Meinung nach zur Wählertäuschung eingesetzt werden könnten. Anfang des Jahres versprachen Microsoft, Meta und Google gemeinsam mit mehr als einem Dutzend anderer Branchenführer, „zu verhindern, dass betrügerische KI-Inhalte die diesjährigen globalen Wahlen beeinträchtigen“. Plattformen wie TikTok und YouTube, die Ehrensysteme verwenden, könnten bald gezwungen werden Ich möchte jedoch Metas Ansatz übernehmen. Gemäß einer Bestimmung des EU-KI-Gesetzes, das nächsten Sommer in Kraft tritt, werden Technologieunternehmen mit einer Geldstrafe belegt, wenn sie von KI erstellte Inhalte nicht erkennen und identifizieren, einschließlich Texten, „die mit dem Zweck veröffentlicht werden, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren“.