Scale AI sieht sich mit der dritten Klage wegen angeblicher Arbeitspraktiken in etwas mehr als einem Monat konfrontiert, diesmal von Arbeitnehmern, die behaupten, sie hätten ein psychisches Trauma erlitten, weil sie verstörende Inhalte ohne angemessene Schutzmaßnahmen überprüft hätten.
Scale, das letztes Jahr einen Wert von 13,8 Milliarden US-Dollar hatte, verlässt sich auf Mitarbeiter, die es als Auftragnehmer einstuft, um Aufgaben wie die Bewertung der Antworten von KI-Modellen zu erledigen.
Anfang dieses Monats verklagte eine ehemalige Arbeitnehmerin den Vorwurf, dass sie faktisch unter dem Mindestlohn bezahlt und fälschlicherweise als Auftragnehmerin eingestuft worden sei. Es wurde auch eine Beschwerde wegen ähnlicher Probleme eingereicht Dezember 2024.
Das Letzte Beschwerdeeingereicht am 17. Januar im Northern District of California, ist eine Sammelklage, die sich auf die psychischen Schäden konzentriert, die angeblich sechs Personen erlitten haben, die auf der Scale-Plattform Outlier gearbeitet haben.
Die Kläger behaupten, sie seien ohne angemessene psychologische Unterstützung gezwungen worden, beunruhigende Aufforderungen über Gewalt und Missbrauch – einschließlich Kindesmissbrauch – zu verfassen, und hätten Vergeltungsmaßnahmen erlitten, als sie psychologische Beratung in Anspruch genommen hätten. Sie sagen, dass sie bei der Einstellung über die Art des Jobs getäuscht wurden und aufgrund ihrer Arbeit psychische Probleme wie eine posttraumatische Belastungsstörung hatten. Sie fordern die Schaffung eines medizinischen Überwachungsprogramms sowie neue Sicherheitsstandards sowie nicht näher bezeichnete Schadensersatz- und Anwaltskosten.
Einer der Kläger, Steve McKinney, ist der Hauptkläger in diesem Einzelfall Beschwerde vom Dezember 2024 gegen Scale. Dieselbe Anwaltskanzlei, Clarkson Law Firm aus Malibu, Kalifornien, vertritt die Kläger in beiden Klagen.
Die Anwaltskanzlei Clarkson hat zuvor eine Sammelklage gegen OpenAI und Microsoft wegen der angeblichen Verwendung gestohlener Daten eingereicht – eine Klage entlassen nachdem er von einem Bezirksrichter wegen seiner Länge und seines Inhalts kritisiert wurde. Unter Bezugnahme auf diesen Fall kritisierte Joe Osborne, ein Sprecher von Scale AI, die Anwaltskanzlei Clarkson und sagte, Scale plane, „uns energisch zu verteidigen“.
„Die Anwaltskanzlei Clarkson hat zuvor – und erfolglos – innovative Technologieunternehmen mit Rechtsansprüchen verfolgt, die vor Gericht kurzerhand abgewiesen wurden. Ein Bundesrichter stellte fest, dass eine ihrer früheren Beschwerden „unnötig lang“ war und „größtenteils irrelevante, ablenkende oder überflüssige Informationen“ enthielt“, sagte Osborne gegenüber Tech.
Osborne sagte, Scale halte sich an alle Gesetze und Vorschriften und verfüge über „zahlreiche Sicherheitsvorkehrungen“, um seine Mitwirkenden zu schützen, etwa die Möglichkeit, sich jederzeit abzumelden, eine Vorankündigung sensibler Inhalte und Zugang zu Gesundheits- und Wellnessprogrammen. Osborne fügte hinzu, dass Scale keine Projekte übernimmt, die möglicherweise Material über sexuellen Missbrauch von Kindern enthalten.
Als Reaktion darauf sagte Glenn Danas, Partner bei der Anwaltskanzlei Clarkson, gegenüber Tech, dass Scale AI „Arbeiter gezwungen hat, grausame und gewalttätige Inhalte anzusehen, um diese KI-Modelle zu trainieren“ und es versäumt hat, einen sicheren Arbeitsplatz zu gewährleisten.
„Wir müssen diese großen Technologieunternehmen wie Scale AI zur Rechenschaft ziehen, sonst werden die Arbeiter weiterhin ausgebeutet, um diese unregulierte Technologie gewinnbringend zu trainieren“, sagte Danas.