Oversight Board fordert Meta auf, „inkohärente“ Regeln gegen gefälschte Videos neu zu schreiben

Ein irreführender, sieben Sekunden langer Clip von Präsident Biden könnte Facebooks Fehlinformationspolitik vor der Wahl 2024 umgestalten, aber der Plattform – und den amerikanischen Wählern – läuft die Zeit davon.

Das Oversight Board, die externe Beratungsgruppe, die Meta gegründet hat, um ihre Moderationsentscheidungen auf Facebook und Instagram zu überprüfen, hat am Montag eine Entscheidung bezüglich eines manipulierten Videos von Biden erlassen, das letztes Jahr in den sozialen Medien die Runde machte.

Der Originalvideo zeigte den Präsidenten, der seine Enkelin Natalie Biden begleitete, um bei der vorgezogenen Stimmabgabe bei den Zwischenwahlen 2022 ihre Stimme abzugeben. In dem Video klebt Präsident Biden seiner Enkelin einen „I Voted“-Aufkleber an und küsst sie auf die Wange.

In einer kurzen, bearbeiteten Version des Videos werden visuelle Beweise für den Aufkleber entfernt, der Clip wird auf ein Lied mit sexuellen Texten eingestellt und in einer Schleife wiedergegeben, um zu zeigen, wie Biden die junge Frau unangemessen berührt. Der sieben Sekunden lange Clip wurde im Mai 2023 auf Facebook hochgeladen, mit der Überschrift, in der Biden als „kranker Pädophiler“ beschrieben wurde.

Das Meta-Aufsichtsgremium kündigte an, den Fall zu übernehmen letzten Oktober nachdem ein Facebook-Nutzer das Video gemeldet und den Fall schließlich eskaliert hatte, als die Plattform sich weigerte, es zu entfernen.

In seiner am Montag erlassenen Entscheidung stellt das Aufsichtsgremium fest, dass die Entscheidung von Meta, das Video online zu lassen, im Einklang mit den Regeln der Plattform stand, bezeichnet die entsprechende Richtlinie jedoch als „inkohärent“.

„So wie es aussieht, macht die Richtlinie wenig Sinn“, sagte Michael McConnell, Co-Vorsitzender des Aufsichtsgremiums. „Es verbietet veränderte Videos, die zeigen, wie Menschen Dinge sagen, die sie nicht sagen, aber es verbietet keine Beiträge, in denen eine Person etwas tut, was sie nicht getan hat.“ Es gilt nur für mithilfe von KI erstellte Videos, lässt aber andere gefälschte Inhalte aus dem Verkehr ziehen.“

McConnell wies auch auf das Versäumnis der Politik hin, manipulierte Audiodaten zu bekämpfen, und nannte sie „eine der wirksamsten Formen der Desinformation bei Wahlen“.

In der Entscheidung des Aufsichtsgremiums wird argumentiert, dass sich die Regeln von Meta nicht darauf konzentrieren sollten, wie ein bestimmter Inhalt erstellt wurde, sondern sich an den Schäden orientieren sollten, die sie verhindern sollen. Jegliche Änderungen sollten angesichts der weltweiten Wahlen „dringend“ umgesetzt werden, heißt es in der Entscheidung.

Über die Erweiterung hinaus manipulierte Medienpolitikschlug das Oversight Board vor, dass Meta Etiketten zu veränderten Videos hinzufügt, um sie als solche zu kennzeichnen, anstatt sich auf Faktenprüfer zu verlassen, ein Prozess, den die Gruppe als „jeweils asymmetrisch“ kritisiert Sprache und Markt.“

Das Oversight Board ist davon überzeugt, dass Meta die Meinungsfreiheit maximieren, potenzielle Schäden abmildern und mehr Informationen für Benutzer bereitstellen kann, indem es mehr Inhalte kennzeichnet, anstatt sie zu entfernen.

In einer Erklärung gegenüber Tech bestätigte ein Meta-Sprecher, dass das Unternehmen „die Leitlinien des Aufsichtsgremiums prüft“ und innerhalb von 60 Tagen eine öffentliche Antwort herausgeben wird.

Das veränderte Video kursiert weiterhin auf X, ehemals Twitter. Letzten Monat teilte ein verifizierter X-Account mit 267.000 Followern den Clip mit der Überschrift „Die Medien tun einfach so, als ob das nicht passiert.“ Das Video hat mehr als 611.000 Aufrufe.

Das Biden-Video ist nicht das erste Mal, dass das Oversight Board Meta letztlich dazu auffordert, bei seinen Richtlinien noch einmal ans Reißbrett zu gehen. Als sich die Gruppe zu Facebooks Entscheidung äußerte, den ehemaligen Präsidenten Trump zu sperren, beklagte sie die „vage, standardlose“ Natur der unbefristeten Strafe, stimmte jedoch der Entscheidung zu, sein Konto zu sperren. Das Aufsichtsgremium hat Meta generell aufgefordert, in allen Fällen mehr Details und Transparenz in seinen Richtlinien bereitzustellen.

Wie das Aufsichtsgremium feststellte, als es den Biden-Fall der „billigen Fälschung“ annahm, blieb Meta bei seiner Entscheidung, das veränderte Video online zu lassen, da seine Richtlinie zu manipulierten Medien – irreführend veränderte Fotos und Videos – nur dann gilt, wenn KI verwendet wird oder wenn das Thema betroffen ist eines Videos wird dargestellt, indem sie etwas sagen, was sie nicht gesagt haben.

Die manipulierte Medienrichtlinie, die im Hinblick auf Deepfakes entwickelt wurde, gilt nur für „Videos, die bearbeitet oder synthetisiert wurden … auf eine Weise, die für einen Durchschnittsmenschen nicht offensichtlich ist und einen Durchschnittsmenschen wahrscheinlich zu der Annahme verleiten würde, dass sie es glauben.“

Kritiker des Inhaltsmoderationsprozesses von Meta haben Metas selbst entworfenes Prüfungsgremium als zu wenig abgetan. viel zu spät.

Meta verfügt zwar mittlerweile über ein standardisiertes System zur Überprüfung der Inhaltsmoderation, aber Fehlinformationen und andere gefährliche Inhalte verbreiten sich schneller als dieser Berufungsprozess – und viel schneller, als sich die Welt noch vor zwei allgemeinen Wahlzyklen hätte vorstellen können.

Forscher und Überwachungsgruppen bereiten sich auf einen Ansturm irreführender Behauptungen und KI-generierter Fälschungen vor, während das Rennen um die Präsidentschaft im Jahr 2024 voranschreitet. Aber auch wenn neue Technologien die Verbreitung gefährlicher Unwahrheiten ermöglichen, haben Social-Media-Unternehmen dies stillschweigend getan haben ihre Investitionen drastisch gekürzt in Vertrauen und Sicherheit und wandte sich von dem ab, was einst wie eine konzertierte Anstrengung schien, Fehlinformationen auszumerzen.

„Die Menge irreführender Inhalte nimmt zu und die Qualität der Tools zu deren Erstellung nimmt rapide zu“, sagte McConnell.

tch-1-tech