Im Anschluss an eine Warnung der Aufsichtsbehörden der Europäischen Union zur Inhaltsmoderation Anfang dieser Woche hat Meta einen Überblick darüber veröffentlicht, wie es auf seinen Social-Media-Plattformen auf Risiken reagiert, die sich aus dem Krieg zwischen Israel und der Hamas ergeben.
Es ist Blogeintrag deckt ab, was es als „laufende Bemühungen“ bezeichnet, wobei einige bestehende Richtlinien und Tools für Benutzer überarbeitet wurden. Das Unternehmen bestätigt jedoch, dass es angesichts der sich schnell ändernden Ereignisse in Israel und Gaza einige Änderungen vorgenommen hat.
Dazu gehört angeblich eine vorübergehende Ausweitung der Gewalt- und Aufstachelungspolitik, um der Sicherheit der von der Hamas entführten Israelis Priorität einzuräumen.
Meta sagt, dass im Rahmen dieser Änderung Inhalte entfernt werden, die „Geiseln eindeutig identifizieren, wenn wir darauf aufmerksam gemacht werden, selbst wenn dies geschieht, um ihre Situation zu verurteilen oder das Bewusstsein dafür zu schärfen“. „Wir erlauben Inhalte mit unscharfen Bildern der Opfer, aber im Einklang mit den in der Genfer Konvention festgelegten Standards werden wir der Sicherheit und Privatsphäre von Entführungsopfern Priorität einräumen, wenn wir unsicher sind oder keine klare Einschätzung abgeben können“, heißt es weiter.
Meta sagt außerdem, dass es der Überprüfung von Livestreaming-Funktionen auf Facebook und Instagram Priorität einräumt – einschließlich der Überwachung etwaiger Versuche der Hamas, die Tools zu nutzen, um Aufnahmen von gefangenen Israelis oder anderen Geiseln zu übertragen.
In einem besonders beunruhigenden Bericht über Israelische Medien Diese Woche erzählte ein Mädchen, das in den sozialen Medien weit verbreitet war, wie sie und ihre Familie vom Tod ihrer Großmutter erfahren hatten, nachdem Hamas-Kämpfer ein Video ihrer Leiche auf Facebook hochgeladen hatten, offenbar mit ihrem eigenen Mobiltelefon, um das zu posten grafischen Inhalt auf der Facebook-Seite der toten Frau.
„Wir sind uns bewusst, dass die Unmittelbarkeit von Live einzigartige Herausforderungen mit sich bringt, und das haben wir getan Einschränkungen bestehen zur Nutzung von Live für Personen, die zuvor gegen bestimmte Richtlinien verstoßen haben. „Wir priorisieren Livestream-Berichte im Zusammenhang mit dieser Krise, die über unsere bestehende Priorisierung von Live-Videos hinausgehen“, schrieb Meta und hob die Maßnahmen hervor, die nach den Anschlägen von Christchurch in Neuseeland im Jahr 2019 ergriffen wurden, als ein einzelner Schütze einen Amoklauf mit gezieltem Ziel per Livestream übertrug zwei Moscheen auf Facebook.
„Wir sind uns auch der Drohungen der Hamas bewusst, Aufnahmen der Geiseln zu senden, und wir nehmen diese Drohungen äußerst ernst. Unsere Teams überwachen dies genau und werden alle derartigen Inhalte (und die dahinter stehenden Konten) umgehend entfernen und die Inhalte in unseren Systemen speichern, um zu verhindern, dass Kopien erneut geteilt werden“, heißt es weiter.
Weitere Schritte, die Meta unternommen hat, um auf die Situation in Israel und Gaza zu reagieren, umfassen die Verringerung der Wahrscheinlichkeit, dass seine Systeme potenziell verletzende oder grenzwertige Inhalte aktiv empfehlen, und die Reduzierung der Sichtbarkeit potenziell beleidigender Kommentare. und die Anwendung der Hashtag-Blockierung, um bestimmte Begriffe im Zusammenhang mit dem Konflikt auf seinen Plattformen nicht durchsuchbar zu machen. In seinem Blogbeitrag wird nicht angegeben, welche Hashtags Meta im Zusammenhang mit dem Israel-Hamas-Krieg blockiert.
In dem Blogbeitrag von Meta heißt es außerdem, dass das Unternehmen ein spezielles Operationszentrum mit Experten, darunter Arabisch- und Hebräischsprachigen, eingerichtet habe, um seine Fähigkeit zu verbessern, schnell auf Inhaltsberichte zu reagieren.
Es heißt auch, dass man Rückmeldungen von lokalen Partnern (z. B. NGOs) zu neu auftretenden Risiken entgegennimmt – und behauptet, „schnell zu handeln, um diese anzugehen“.
„In den drei Tagen nach dem 7. Oktober haben wir mehr als 795.000 Inhalte entfernt oder als verstörend markiert, weil sie gegen diese Richtlinien auf Hebräisch und Arabisch verstoßen“, heißt es darin. „Im Vergleich zu den zwei Monaten zuvor haben wir in den drei Tagen nach dem 7. Oktober allein auf Hebräisch und Arabisch siebenmal so viele Inhalte täglich entfernt, weil sie gegen unsere Richtlinie zu gefährlichen Organisationen und Personen verstoßen.“
Angesichts der erhöhten Aufmerksamkeit und Besorgnis über die Situation hält Meta es für möglich, dass nicht verletzende Inhalte „irrtümlich“ entfernt werden.
„Um dies zu mildern, entfernen wir bei einigen Verstößen vorübergehend Inhalte ohne Streiks, was bedeutet, dass diese Inhaltsentfernungen nicht dazu führen, dass Konten deaktiviert werden“, heißt es darin. „Wir stellen den Benutzern auch weiterhin Tools zur Verfügung appellieren unsere Entscheidungen, wenn sie glauben, wir hätten einen Fehler gemacht.“
Die Einhaltung des Digital Services Act (DSA) des Blocks trat für Meta im August als Eigentümer einer sogenannten Very Large Online Platform (VLOP) in Kraft.
Die Kommission hat bereits im April 19 VLOPs benannt – darunter Facebook und Instagram im Besitz von Meta.
Die Benennung verpflichtet VLOPs dazu, gewissenhaft auf Meldungen über illegale Inhalte zu reagieren, ihre AGB den Nutzern klar mitzuteilen und ihre Bedingungen ordnungsgemäß durchzusetzen. Aber es reicht auch noch weiter und verlangt von diesen größeren Plattformen, Maßnahmen zu ergreifen, um systemische Risiken wie Desinformation zu erkennen und zu mindern.
Die Verordnung enthält auch einen „Krisenreaktionsmechanismus“, den die Kommission für VLOPs in Situationen einführen kann, in denen die Nutzung ihrer Plattformen zu ernsthaften Bedrohungen wie Krieg beitragen könnte.
Die Strafen für die Nichteinhaltung der EU-weiten Verordnung können sich auf bis zu 6 % des weltweiten Jahresumsatzes belaufen – was im Fall von Meta mehrere Milliarden betragen könnte.
Der Social-Media-Riese ist nicht der Einzige, der vom Block wegen inhaltlicher Bedenken im Zusammenhang mit dem Israel-Hamas-Krieg gewarnt wurde: Elon Musks und anschließend eine formelle Anfrage nach Informationen über seinen Compliance-Ansatz.
TikTok hat außerdem eine Warnung der EU zu DSA-Inhaltsrisiken im Zusammenhang mit dem Konflikt erhalten.