Mitarbeiter, die ChatGPT weniger schädlich gemacht haben, fordern den Gesetzgeber auf, der angeblichen Ausbeutung durch Big Tech Einhalt zu gebieten

Mitarbeiter die ChatGPT weniger schaedlich gemacht haben fordern den Gesetzgeber

Kenianische Arbeiter, die geholfen haben, schädliche Inhalte auf ChatGPT zu entfernen, der intelligenten Suchmaschine von OpenAI, die Inhalte auf der Grundlage von Benutzereingaben generiert, haben beim Gesetzgeber des Landes eine Petition eingereicht, in der sie sie auffordern, Untersuchungen zum Outsourcing von Inhaltsmoderation und KI-Arbeit durch Big Tech in Kenia einzuleiten.

Die Petenten wollen Untersuchungen zur „Art der Arbeit, den Arbeitsbedingungen und den Abläufen“ der großen Technologieunternehmen, die Dienstleistungen in Kenia über Unternehmen wie Sama auslagern – was im Mittelpunkt mehrerer Rechtsstreitigkeiten wegen angeblicher Ausbeutung und Gewerkschaftszerstörung steht und illegale Massenentlassungen von Content-Moderatoren.

Die Petition folgt a Zeitbericht Darin wurde detailliert auf die erbärmliche Entlohnung der Sama-Arbeiter eingegangen, die ChatGPT weniger giftig machte, und auf die Art ihrer Arbeit, die das Lesen und Beschriften von grafischen Texten erforderte, einschließlich der Beschreibung von Mord-, Bestialitäts- und Vergewaltigungsszenen. In dem Bericht heißt es, dass Sama Ende 2021 von OpenAI damit beauftragt wurde, „Textbeschreibungen von sexuellem Missbrauch, Hassreden und Gewalt zu kennzeichnen“, als Teil der Arbeit an der Entwicklung eines (in ChatGPT integrierten) Tools zur Erkennung toxischer Inhalte.

Die Arbeiter sagen, dass sie ausgebeutet wurden und keine psychosoziale Unterstützung erhielten, dennoch waren sie schädlichen Inhalten ausgesetzt, die bei ihnen zu „schweren psychischen Erkrankungen“ führten. Die Arbeiter wollen, dass der Gesetzgeber „die Auslagerung schädlicher und gefährlicher Technologie regelt“ und die Arbeiter schützt, die das tun.

Sie fordern sie außerdem auf, Gesetze zu erlassen, die „die Auslagerung schädlicher und gefährlicher Technologiearbeiten regeln und die Arbeitnehmer schützen, die an solchen Aufträgen beteiligt sind“.

Sama gibt an, 25 % der Fortune-50-Unternehmen, darunter Google und Microsoft, zu seinen Kunden zu zählen. Das Hauptgeschäft des in San Francisco ansässigen Unternehmens liegt in der Annotation, Kuratierung und Validierung von Computer-Vision-Daten. Das Unternehmen beschäftigt an seinen Standorten, darunter auch in Kenia, mehr als 3.000 Mitarbeiter. Anfang des Jahres stellte Sama seine Content-Moderationsdienste ein, um sich auf die Annotation von Computer-Vision-Daten zu konzentrieren, und entließ 260 Mitarbeiter.

In der Antwort von OpenAI auf die mutmaßliche Ausbeutung wurde anerkannt, dass die Arbeit eine Herausforderung darstellte, und hinzugefügt, dass das Unternehmen ethische und gesundheitliche Standards festgelegt und mit seinen Datenannotatoren geteilt habe (ohne nähere Angaben zu den genauen Maßnahmen zu machen), damit die Arbeit „menschlich und bereitwillig“ erbracht werden könne.

Sie stellten fest, dass die Annotation menschlicher Daten zum Aufbau einer sicheren und nützlichen künstlichen allgemeinen Intelligenz einer der vielen Arbeitszweige war, um menschliches Feedback zu sammeln und die Modelle zu einem sichereren Verhalten in der realen Welt zu führen.

„Wir sind uns bewusst, dass dies eine herausfordernde Arbeit für unsere Forscher und Annotationsmitarbeiter in Kenia und auf der ganzen Welt ist – ihre Bemühungen, die Sicherheit von KI-Systemen zu gewährleisten, waren immens wertvoll“, sagte der Sprecher von OpenAI.

Sama sagte gegenüber Tech, es sei offen für eine Zusammenarbeit mit der kenianischen Regierung, „um sicherzustellen, dass in allen Unternehmen grundlegende Schutzmaßnahmen vorhanden sind“. Es hieß, dass es Prüfungen seiner Arbeitsbedingungen durch Dritte begrüße, und fügte hinzu, dass die Mitarbeiter über mehrere Kanäle verfügen, um Bedenken zu äußern, und dass es „mehrere externe und interne Bewertungen und Prüfungen durchgeführt hat, um sicherzustellen, dass wir faire Löhne zahlen und ein Arbeitsumfeld bieten, das dies gewährleistet.“ ist würdevoll.“

tch-1-tech