Die wesentlichen Arbeiten der Datenarbeit, wie Moderation und Annotation, werden systematisch vor denen verborgen, die von den Früchten dieser Arbeit profitieren. Ein neues Projekt rückt die Lebenserfahrungen von Datenarbeitern auf der ganzen Welt ins Rampenlicht und zeigt aus erster Hand die Kosten und Chancen der technischen Arbeit im Ausland.
Viele langweilige, undankbare oder psychologisch belastende Aufgaben wurden in ärmere Länder ausgelagert, wo die Arbeiter gerne für einen Bruchteil eines amerikanischen oder europäischen Lohns arbeiten. Dieser Arbeitsmarkt reiht sich ein in andere Berufe der Kategorie „langweilig, schmutzig oder gefährlich“ wie das „Recycling“ von Elektronik und das Abwracken von Schiffen. Die Arbeitsbedingungen bei Moderations- oder Annotationsarbeiten kosten Sie nicht so schnell ein Vermögen oder führen zu Krebs, aber das macht sie nicht ungefährlich und schon gar nicht weniger angenehm oder lohnend.
Die Untersuchung der Datenarbeitereine Zusammenarbeit zwischen der KI-Ethik-Forschungsgruppe DAIR und der TU Berlin, basieren nominell auf Marx‘ Arbeit aus dem späten 19. Jahrhundert, in der Arbeitsbedingungen in Berichten identifiziert werden, die „kollektiv erstellt und politisch umsetzbar“ sind.
Alle Berichte sind kostenlos verfügbar und wurden heute bei einer Online-Veranstaltung vorgestellt, bei der die Projektleiter sie diskutierten.
Der immer größer werdende Anwendungsbereich von KI basiert zwangsläufig auf menschlichem Fachwissen, und dieses Fachwissen wird bis heute zum niedrigsten Preis gekauft, den Unternehmen anbieten können, ohne PR-Probleme zu bekommen. Wenn Sie einen Beitrag melden, heißt es nicht: „Großartig, wir schicken das an einen Typen in Syrien, der sich für 3 Cent darum kümmert.“ Aber die Menge der Berichte (und der Inhalte, die es wert sind, gemeldet zu werden) ist so hoch, dass andere Lösungen als die massenhafte Auslagerung der Arbeit an Billiglohnmärkte für die beteiligten Unternehmen nicht wirklich sinnvoll sind.
Bei näherer Betrachtung der Berichte fällt auf, dass sie größtenteils anekdotischer Natur sind, und das mit Absicht. Sie bewegen sich eher auf der Ebene systematischer anthropologischer Beobachtungen als auf der Ebene quantitativer Analysen.
Die Quantifizierung solcher Erfahrungen erfasst oft nicht die tatsächlichen Kosten – die Statistiken, die man am Ende erhält, sind von der Art, die Unternehmen gerne herausposaunen (und daher in Studien umsetzen): höhere Löhne als andere Unternehmen in der Region, Schaffung von Arbeitsplätzen, an die Kunden weitergegebene Einsparungen. Selten werden Dinge wie schlaflose Nächte für Moderationsmitarbeiter aufgrund von Albträumen oder grassierende chemische Abhängigkeit erwähnt, geschweige denn gemessen und präsentiert.
Lesen Sie den Bericht von Fasica Berhane Gebrekidan über kenianische Datenarbeiter, die mit psychischen Problemen und Drogenproblemen zu kämpfen haben. (Das vollständige PDF finden Sie hier.)
Sie und ihre Kollegen arbeiteten für Sama, das sich selbst als ethischere Datenverarbeitungsanlage bezeichnet, doch die Realität des Jobs, so beschreiben es die Menschen selbst, ist von unerbittlichem Elend und mangelnder Unterstützung durch die örtliche Niederlassung geprägt.
Sie werden angeworben, um Tickets (d. h. markierte Inhalte) in lokalen Sprachen und Dialekten zu bearbeiten, und sind einem nicht enden wollenden Strom von Gewalt, Blut, sexuellem Missbrauch, Hassreden und anderen Inhalten ausgesetzt, die sie sich ansehen und schnell „reagieren“ müssen, damit ihre Leistung nicht unter das erwartete Niveau fällt, was zu Gehaltskürzungen führen würde, heißt es in dem Bericht. Bei einigen ist das mehr als eins pro Minute, was bedeutet, dass sie sich mindestens 500 solcher Inhalte pro Tag ansehen. (Falls Sie sich fragen, wo die KI hier ist – sie stellt wahrscheinlich die Trainingsdaten bereit.)
„Es ist absolut niederschmetternd. Ich habe die schlimmsten Dinge gesehen, die man sich vorstellen kann. Ich habe Angst, dass ich für den Rest meines Lebens gezeichnet sein werde, weil ich diese Arbeit mache“, sagte Rahel Gebrekirkos, eine der befragten Bauunternehmerinnen.
Das Hilfspersonal sei „schlecht ausgerüstet, unprofessionell und unterqualifiziert“ gewesen und die Moderatoren hätten häufig zu Medikamenten gegriffen, um mit der Situation klarzukommen, und hätten über Zwangsgedanken, Depressionen und andere Probleme geklagt.
Einiges davon haben wir schon einmal gehört, aber es ist wichtig zu wissen, dass es immer noch passiert. Es gibt mehrere Berichte dieser Art, aber andere sind persönlichere Geschichten oder haben andere Formate.
Zum Beispiel, YAsser Yousef Alrayes ist ein Datenannotator in Syrien und arbeitet, um sein Studium zu finanzieren. Er und sein Mitbewohner arbeiten gemeinsam an visuellen Annotationsaufgaben wie dem Parsen von Textbildern, die, wie er betont, oft schlecht definiert sind und von den Kunden frustriert werden.
Er beschloss, seine Arbeit zu dokumentieren in Form eines Kurzfilms das sind acht Minuten Ihrer Zeit wert.
Arbeiter wie Yasser agieren häufig hinter vielen Organisationsebenen und sind Subunternehmer anderer Subunternehmer, so dass die Verantwortungsbereiche im Falle von Problemen oder Rechtsstreitigkeiten verschleiert bleiben.
Milagros Miceli von DAIR und der TU Berlin, eine der Projektleiterinnen, sagte mir, sie hätten von den im Bericht genannten Unternehmen noch keine Kommentare oder Änderungen gesehen, es sei aber noch früh. Die Ergebnisse scheinen jedoch überzeugend genug, um noch mehr zu erfahren: „Wir planen, diese Arbeit mit einer zweiten Gruppe von Datenarbeitern fortzusetzen“, schrieb sie, „höchstwahrscheinlich aus Brasilien, Finnland, China und Indien.“
Zweifellos gibt es einige, die diese Berichte gerade wegen der Qualität, die sie so wertvoll macht, nicht ernst nehmen: ihr anekdotischer Charakter. Aber während man mit Statistiken leicht lügen kann, steckt in Anekdoten immer zumindest ein Körnchen Wahrheit, denn diese Geschichten stammen direkt aus der Quelle. Selbst wenn dies die einzigen zwölf Moderatoren in Kenia, Syrien oder Venezuela mit diesen Problemen wären, sollte das, was sie sagen, jeden beunruhigen, der sich auf sie verlässt – also so ziemlich jeden.