Ein in Barcelona ansässiges Unternehmen, das als Subunternehmer für Meta arbeitet und Content-Moderationsdienste für Facebook und Instagram bereitstellt, wurde von einem Gericht in Spanien für den psychischen Schaden verantwortlich gemacht, den ein Arbeitnehmer erlitten hat. Laut lokalen Presseberichten ist das am Donnerstag ergangene Urteil das erste Mal, dass ein Gericht in Spanien ein Unternehmen für die Moderation von Inhalten für die psychischen Störungen eines Arbeitnehmers verantwortlich macht.
Ein Bericht in El Periodico Am Donnerstag hieß es, das Urteil, das Anfang des Monats ergangen sei, beziehe sich auf eine Anfechtung, die ein 26-jähriger Brasilianer gegen den lokalen Subunternehmer von Meta, CCC Barcelona Digital Services, angestrengt habe, der sich seit fünf Jahren wegen extremer Belastung in psychiatrischer Behandlung befinde und gewalttätige Inhalte auf Facebook und Instagram, wie Morde, Selbstmorde, Terrorismus und Folter.
Der betreffende Arbeitnehmer, der 2018 mit der Moderation von Facebook- und Instagram-Inhalten begann, soll eine Reihe psychischer Schäden erlitten haben, darunter Panikattacken, Vermeidungsverhalten, übermäßige Sorge vor Krankheiten, Schlafstörungen, Schluckbeschwerden und erhebliche Thanatophobie (Angst aufgrund von Todesangst), heißt es in der Zeitung.
Das Gericht in Barcelona räumte ein, dass es sich bei den psychischen Problemen des Arbeitnehmers nicht um eine gewöhnliche Krankheit, sondern um einen Arbeitsunfall handele, heißt es in der Zeitung. Metas Subunternehmer hatte seine Abwesenheit von der Arbeit als allgemeines Leiden angesehen und wollte die Verantwortung für etwaige psychische Schäden ablehnen, die durch die Überprüfung gewalttätiger Inhalte auf Facebook und Instagram entstanden seien.
In einem Social-Media-Beitrag Als Reaktion auf das Gerichtsurteil bezeichnete die Anwaltskanzlei Espacio Jurídico Feliu Fins, die den Arbeitnehmer vertritt, das Ergebnis als einen großen Gewinn für alle Arbeitnehmer, die aufgrund ihrer Arbeit unter psychischen Problemen leiden.
„Meta und soziale Medien im Allgemeinen müssen das Ausmaß dieses Problems erkennen und ihre Strategie ändern“, schrieb die Anwaltskanzlei in dem Beitrag [in Spanish; this is a machine translation]. „Anstatt die Strategie zu verfolgen, das Problem zu leugnen, müssen sie akzeptieren, dass diese schreckliche Realität, unter der diese Arbeiter leiden, so real ist wie das Leben selbst.“
„An dem Tag, an dem sie es annehmen und sich ihr stellen, wird sich alles ändern. Solange dies nicht geschieht, werden wir dafür sorgen, dass dies auf dem Rechtsweg geschieht. Wir werden Schritt für Schritt vorgehen, ohne Eile, aber ohne zu zögern. Und vor allem mit der absoluten Entschlossenheit, dass wir gewinnen werden.“
Die Auslagerung der Überprüfung toxischer Inhalte durch Meta an verschiedene Subunternehmer von Drittanbietern, die Dutzende von – typischerweise – schlecht bezahlten Arbeitskräften zur Verfügung stellen, die als menschliche Filter für extreme Gewalt und andere schreckliche Taten eingesetzt werden, die in ihre sozialen Netzwerke hochgeladen werden, hat für beunruhigende Geschichten gesorgt Jahre. Und doch geht die Praxis weiter.
Zurück in Mai 2020 Meta erklärte sich bereit, 52 Millionen US-Dollar zu zahlen, um eine US-Sammelklage beizulegen, die von Inhaltsmoderatoren eingereicht wurde, die für Dritte arbeiteten, die Inhaltsüberprüfungsdienste für ihre sozialen Netzwerke anbieten, und behauptet hatten, dass die Überprüfung gewalttätiger und drastischer Bilder bei ihnen zur Entwicklung einer posttraumatischen Belastungsstörung geführt habe.
Das Unternehmen ist auch mit einem Rechtsstreit in Afrika konfrontiert, wo ein Moderator von Sama, einem Subunternehmer von Meta in Kenia, beide Unternehmen wegen Vorwürfen verklagt, zu denen auch das Versäumnis gehört, „angemessene“ psychische Gesundheit und psychosoziale Unterstützung bereitzustellen.
Meta wollte sich zum Urteil gegen seinen Subunternehmer in Spanien nicht äußern. Der Social-Networking-Riese lieferte jedoch einige allgemeine Informationen zu seinem Ansatz zur Auslagerung der Inhaltsmoderation und sagte, dass seine Verträge mit den Drittanbietern, mit denen er bei der Inhaltsüberprüfung zusammenarbeitet, die Erwartung enthalten, dass sie Vorkehrungen in Bereichen wie Beratung, Schulung und anderer Unterstützung für die Arbeitnehmer treffen.
Der Technologieriese sagte außerdem, dass seine Verträge von Subunternehmern verlangen, dass sie rund um die Uhr Vor-Ort-Unterstützung durch geschulte Ärzte leisten und darüber hinaus einen Bereitschaftsdienst und Zugang zu privater Gesundheitsversorgung ab dem ersten Tag ihrer Beschäftigung anbieten.
Meta wies außerdem darauf hin, dass es technische Lösungen für Subunternehmer bereitstellt, die es Inhaltsprüfern ermöglichen sollen, ihren Kontakt mit grafischem Material, das sie moderieren sollen, so weit wie möglich einzuschränken. Es heißt, dass dieses Tool von den Rezensenten so angepasst werden kann, dass grafische Inhalte völlig unscharf, in Schwarzweiß, für das erste Bild unscharf, ohne Ton abgespielt oder die automatische Wiedergabe deaktiviert werden.
In den Hintergrundbemerkungen des Unternehmens wurde jedoch nicht auf die Möglichkeit eingegangen, dass Unterstützungsdienste und Screening-Tools durch anspruchsvolle Produktivitäts- und Leistungsquoten untergraben werden, die den Prüfern von Subunternehmern auferlegt werden können – was es diesen Arbeitnehmern in der Praxis erschweren könnte, währenddessen angemessene Unterstützung zu erhalten immer noch die von ihren Arbeitgebern geforderte Leistung erbringen.
Bereits im Oktober veröffentlichte die in Barcelona ansässige Zeitung La Vanguardia, berichtete, dass rund 20 % der Mitarbeiter von CCC Barcelona Digital Services aufgrund eines psychischen Traumas durch die Überprüfung toxischer Inhalte arbeitsunfähig waren. In dem Artikel zitiert die Zeitung einen Arbeiter, der die Unterstützung durch seinen Arbeitgeber und Metas Subunternehmer als „sehr unzureichend“ bezeichnet.
Ein weiterer Bericht aus demselben Monat, in El Nacionalspricht von einer hohen „Erfolgsquote“ (98 %) den Arbeitnehmern wird gesagt, dass sie etwas erreichen müssen – was bedeutet, dass die Entscheidungen jedes Moderators mit den Entscheidungen seiner Kollegen übereinstimmen müssen, und die leitenden Wirtschaftsprüfer, in den meisten Fällen, mit dem Risiko, entlassen zu werden, wenn ihre Quote sinkt, heißt es in demselben Bericht.
Der Einsatz von Screening-Tools, die den zu überprüfenden Inhalt ganz oder teilweise verdecken, könnte es den Prüfern deutlich erschweren, anspruchsvolle Leistungsziele zu erreichen. Arbeitnehmer sehen es daher möglicherweise als Risiko an, Tools zu verwenden, die die Genauigkeit ihrer Beurteilungen beeinträchtigen könnten, und sehen, dass sie hinter ihren Kollegen zurückbleiben, da dies ihre weitere Beschäftigung gefährden könnte – was sie effektiv davon abhält, Maßnahmen zu ergreifen, die sie besser vor der Gefährdung schützen könnten psychisch schädliche Inhalte.
Schichtarbeit, die den Mitarbeitern der Inhaltsmoderation routinemäßig auferlegt wird, kann ebenfalls zur Entwicklung psychischer Probleme beitragen, da Schlafstörungen bekanntermaßen zu Stress beitragen. Darüber hinaus impliziert der routinemäßige Einsatz junger, schlecht bezahlter Arbeitskräfte in Content-Moderationsbetrieben, dass ein hohes Burn-out-Risiko in das Modell eingebaut ist – was darauf hindeutet, dass es sich um eine Industrie mit verschlossenen Türen handelt, die auf die Bewältigung von Toxizität durch hohe Abwanderung ausgerichtet ist; oder im Wesentlichen ausgelagertes Burn-out-as-a-Service.
Gesetzliche Entscheidungen, die externe Prüfer von Inhalten verpflichten, sich um die psychische Gesundheit der Arbeitnehmer zu kümmern, könnten dem Modell jedoch Grenzen setzen.
Auf eine an Telus, das kanadische Unternehmen, zu dem CCC Barcelona Digital Services gehört, gerichtete Bitte um Stellungnahme wurde bei Redaktionsschluss noch nicht beantwortet.