ChatGPT-Hersteller lagerte Arbeit an schlecht bezahlte Kenianer aus – TIME – World

ChatGPT Hersteller lagerte Arbeit an schlecht bezahlte Kenianer aus – TIME

Die KI hinter dem vielversprechenden Chatbot musste darauf trainiert werden, keine sexuellen und gewalttätigen Inhalte auszuspucken

ChatGPT, ein KI-gestützter Chatbot, der für seine Textgenerierung große Aufmerksamkeit erregte, wird teilweise mit der Arbeit schlecht bezahlter Arbeiter in Kenia gebaut, berichtete das TIME-Magazin. Sie wurden beauftragt, Passagen mit explizitem Text zu lesen und zu kennzeichnen, damit der Algorithmus diese Art von Sprache vermeiden konnte. Laut einer am Mittwoch veröffentlichten Enthüllung beauftragte der Entwickler OpenAI eine in San Francisco ansässige Firma namens Sama, die sich auf die Annotation von Daten für KI spezialisiert hat Ausbildung. Die Arbeit wird von Menschen in Ländern wie Kenia und Uganda erledigt, wo die Löhne niedriger sind als in Industrienationen. Drei Sama-Verträge mit OpenAI wurden Ende 2021 unterzeichnet und hatten einen Wert von etwa 200.000 US-Dollar, berichtete TIME auf der Grundlage von Rechnungsunterlagen. Rund drei Dutzend Arbeiter in Kenia wurden beauftragt, anschauliche Beschreibungen von Handlungen zu lesen, darunter sexueller Missbrauch von Kindern, Bestialität, Mord, Selbstmord, Folter, Selbstverletzung und Inzest. Ihre Ergebnisse, die nach der Art des Inhalts gekennzeichnet waren, wurden verwendet von OpenAI, um ihre KI zu trainieren, ihre eigene Sprache zu überwachen. ChatGPT generiert Text, nachdem es aus Milliarden von Wörtern gelernt hat, die von Menschen geschrieben wurden, die online verfügbar sind, einschließlich unangemessener Materialien. Dem Bericht zufolge erhielten Arbeiter in Kenia je nach Position und Leistung einen Nettolohn zwischen 1,32 und 2 US-Dollar pro Stunde. Drei von ihnen sagten TIME, dass sie in einer Neun-Stunden-Schicht 150 und 250 Textpassagen mit einer Länge von 100 bis 1.000 Wörtern analysieren sollten. Letztes Jahr berichtete TIME, dass Sama einen ähnlichen Job für Facebook erledigte und dabei assistierte die Entfernung von Inhalten, die gegen die Regeln der Plattform verstoßen. In beiden Fällen sagte das Magazin, dass einige Menschen nach dem Lesen der giftigen Materialien „geistige Narben“ hinterlassen hätten. Anfang 2022 stellte OpenAI Sama für einen anderen Job ein, bei dem es darum ging, explizite Bilder für ein anderes Projekt zu kennzeichnen. Aber innerhalb weniger Wochen zog sich der Subunternehmer aus dem Geschäft zurück, offenbar weil einige der Bilder nach US-Recht illegal waren. OpenAI machte Fehlkommunikation verantwortlich. Anfang dieses Monats kündigte Sama an, dass es nicht mehr mit sensiblen Inhalten arbeiten und sich stattdessen auf das Kommentieren von Daten für KI-Computer-Vision-Lösungen konzentrieren würde. TIME stellte fest, dass „KI bei all ihrem Glanz oft auf versteckte menschliche Arbeit im globalen Süden angewiesen ist, die oft schädlich und ausbeuterisch sein kann“.

:

rrt-allgemeines