Metas neues KI-Deepfake-Playbook: Mehr Labels, weniger Takedowns

Meta hat aufgrund der Kritik seines Aufsichtsgremiums Änderungen an seinen Regeln für KI-generierte Inhalte und manipulierte Medien angekündigt. Ab nächsten Monat werde es, so das Unternehmen, eine breitere Palette solcher Inhalte kennzeichnen, unter anderem durch die Anbringung des Abzeichens „Made with AI“ an Deepfakes. Zusätzliche Kontextinformationen können angezeigt werden, wenn Inhalte auf andere Weise manipuliert wurden, die ein hohes Risiko darstellen, die Öffentlichkeit in einer wichtigen Angelegenheit zu täuschen.

Der Schritt könnte dazu führen, dass der Social-Networking-Riese mehr Inhalte kennzeichnet, die das Potenzial haben, irreführend zu sein – wichtig in einem Jahr, in dem weltweit viele Wahlen stattfinden. Bei Deepfakes wird Meta jedoch nur dann Labels anwenden, wenn der betreffende Inhalt über „industrieübliche KI-Bildindikatoren“ verfügt oder der Uploader seinen KI-generierten Inhalt offengelegt hat.

KI-generierte Inhalte, die außerhalb dieser Grenzen liegen, werden vermutlich unbeschriftet bleiben.

Die Richtlinienänderung wird wahrscheinlich auch dazu führen, dass mehr KI-generierte Inhalte und manipulierte Medien auf den Plattformen von Meta verbleiben, da sie sich zugunsten eines Ansatzes verlagert, der sich auf die „Bereitstellung von Transparenz und zusätzlichem Kontext“ als „bessere Möglichkeit, mit diesen Inhalten umzugehen“ konzentriert ( anstatt manipulierte Medien zu entfernen, da damit Risiken für die freie Meinungsäußerung verbunden sind).

Für KI-generierte oder anderweitig manipulierte Medien auf Meta-Plattformen wie Facebook und Instagram scheint das Spielbuch also zu lauten: mehr Labels, weniger Takedowns.

Meta sagte, dass es im Juli die Entfernung von Inhalten ausschließlich auf der Grundlage seiner aktuellen Richtlinie zu manipulierten Videos einstellen werde, und fügte in einem am Freitag veröffentlichten Blog-Beitrag hinzu: „Dieser Zeitplan gibt den Menschen Zeit, den Selbstoffenbarungsprozess zu verstehen, bevor wir die Entfernung der kleineren Teilmenge davon einstellen.“ manipulierte Medien.“

Mit der Änderung des Ansatzes soll möglicherweise auf steigende rechtliche Anforderungen an Meta in Bezug auf Inhaltsmoderation und systemische Risiken reagiert werden, wie beispielsweise das Gesetz über digitale Dienste der Europäischen Union. Seit letztem August wendet das EU-Recht eine Reihe von Regeln auf seine beiden wichtigsten sozialen Netzwerke an, die von Meta verlangen, einen schmalen Grat zwischen der Beseitigung illegaler Inhalte, der Minderung systemischer Risiken und dem Schutz der freien Meinungsäußerung zu gehen. Der Block übt im Vorfeld der Wahlen zum Europäischen Parlament im Juni dieses Jahres auch zusätzlichen Druck auf Plattformen aus und fordert unter anderem Technologiegiganten auf, Deepfakes mit einem Wasserzeichen zu versehen, sofern dies technisch machbar ist.

Auch die bevorstehenden US-Präsidentschaftswahlen im November beschäftigen Meta wahrscheinlich.

Kritik des Aufsichtsgremiums

Der Beirat von Meta, den der Technologieriese zwar finanziert, ihm aber gestattet, unabhängig voneinander zu agieren, überprüft einen kleinen Prozentsatz seiner Entscheidungen zur Inhaltsmoderation, kann aber auch politische Empfehlungen aussprechen. Meta ist nicht verpflichtet, die Vorschläge des Boards zu akzeptieren, hat sich jedoch in diesem Fall bereit erklärt, seinen Ansatz zu ändern.

In einem Blogeintrag Am Freitag veröffentlichte Monika Bickert, Vizepräsidentin für Inhaltsrichtlinien bei Meta, dass das Unternehmen seine Richtlinien zu KI-generierten Inhalten und manipulierten Medien auf der Grundlage des Feedbacks des Vorstands ändert. „Wir stimmen mit dem Argument des Aufsichtsgremiums überein, dass unser derzeitiger Ansatz zu eng ist, da er nur Videos abdeckt, die von KI erstellt oder verändert wurden, um den Eindruck zu erwecken, dass eine Person etwas sagt, was sie nicht gesagt hat“, schrieb sie.

Bereits im Februar forderte das Oversight Board Meta auf, seinen Ansatz für KI-generierte Inhalte zu überdenken Wir beschäftigen uns mit dem Fall eines manipulierten Videos von Präsident Biden, das so bearbeitet wurde, dass ein platonischer Kuss, den er seiner Enkelin gab, auf ein sexuelles Motiv hindeutet.

Während Der Vorstand stimmte der Entscheidung von Meta zu, den spezifischen Inhalt offen zu lassen. Sie griffen ihre Richtlinie zu manipulierten Medien als „inkohärent“ an – und wies beispielsweise darauf hin, dass dies nur der Fall sei Gilt für mithilfe von KI erstellte Videos und lässt andere gefälschte Inhalte (z. B. eher manipulierte Video- oder Audioinhalte) vom Haken.

Meta scheint das kritische Feedback berücksichtigt zu haben.

„In den letzten vier Jahren und insbesondere im letzten Jahr haben Menschen andere Arten realistischer KI-generierter Inhalte wie Audio und Fotos entwickelt, und diese Technologie entwickelt sich schnell weiter“, schrieb Bickert. „Wie der Vorstand feststellte, ist es ebenso wichtig, Manipulationen zu bekämpfen, die zeigen, dass eine Person etwas tut, was sie nicht getan hat.“

„Der Vorstand argumentierte außerdem, dass wir das Risiko einer unnötigen Einschränkung der Meinungsfreiheit eingehen, wenn wir manipulierte Medien entfernen, die ansonsten nicht gegen unsere Gemeinschaftsstandards verstoßen. Es empfahl einen „weniger restriktiven“ Ansatz für manipulierte Medien wie Etiketten mit Kontext.“

Anfang des Jahres gab Meta bekannt, dass es mit anderen in der Branche an der Entwicklung gemeinsamer technischer Standards für arbeitet Identifizierung von KI-Inhalten, einschließlich Video und Audio. Es stützt sich auf diese Bemühungen, die Kennzeichnung synthetischer Medien jetzt auszuweiten.

„Unsere ‚Made with AI‘-Kennzeichnung für KI-generierte Videos, Audioinhalte und Bilder basiert auf unserer Erkennung branchenüblicher Signale von KI-Bildern oder von Personen, die selbst angeben, dass sie KI-generierte Inhalte hochladen“, sagte Bickert. Das Unternehmen versieht fotorealistische Bilder, die mit seiner eigenen Meta-KI-Funktion erstellt wurden, bereits mit der Bezeichnung „Imagined with AI“.

Die erweiterte Richtlinie wird „ein breiteres Spektrum an Inhalten zusätzlich zu den manipulierten Inhalten abdecken, deren Kennzeichnung das Aufsichtsgremium empfohlen hat“, so Bickert.

„Wenn wir feststellen, dass digital erstellte oder veränderte Bilder, Videos oder Audiodaten ein besonders hohes Risiko darstellen, die Öffentlichkeit in einer wichtigen Angelegenheit materiell zu täuschen, fügen wir möglicherweise eine auffälligere Kennzeichnung hinzu, damit die Menschen mehr Informationen und Kontext haben“, schrieb sie. „Dieser Gesamtansatz gibt den Menschen mehr Informationen über den Inhalt, sodass sie ihn besser beurteilen können und einen Kontext haben, wenn sie den gleichen Inhalt woanders sehen.“

Meta sagte, es werde keine manipulierten Inhalte entfernen – egal ob KI-basiert oder anderweitig manipuliert – es sei denn Es verstößt gegen andere Richtlinien (z. B. Einmischung in die Wählerschaft, Mobbing und Belästigung, Gewalt und Aufstachelung oder andere Probleme mit den Gemeinschaftsstandards). Stattdessen kann es, wie oben erwähnt, in bestimmten Szenarien von großem öffentlichem Interesse „Informationsbezeichnungen und Kontext“ hinzufügen.

Metas Blogbeitrag hebt a hervor Netzwerk von fast 100 unabhängigen Faktenprüfern mit dem es nach eigenen Angaben zusammenarbeitet, um Risiken im Zusammenhang mit manipulierten Inhalten zu identifizieren.

Diese externen Stellen werden laut Meta weiterhin falsche und irreführende KI-generierte Inhalte überprüfen. Wenn sie Inhalte als „Falsch oder verändert“ bewerten, reagiert Meta mit der Anwendung von Algorithmusänderungen, die die Reichweite des Inhalts verringern – was bedeutet, dass Inhalte in Feeds weiter unten angezeigt werden, sodass weniger Menschen sie sehen, und dass Meta zusätzlich ein Overlay-Label mit zusätzlichen Informationen für anbringt die Augäpfel, die darauf landen.

Diese externen Faktenprüfer dürften mit der zunehmenden Verbreitung synthetischer Inhalte, angetrieben durch den Boom generativer KI-Tools, einer zunehmenden Arbeitsbelastung gegenüberstehen. Und weil aufgrund dieser Richtlinienänderung voraussichtlich noch mehr davon auf den Plattformen von Meta verbleiben werden.

tch-1-tech