travailleurs exploités en Afrique qui facturent 1 euro de l’heure

travailleurs exploites en Afrique qui facturent 1 euro de lheure

ChatGPT a été une révolution absolue en Espagne et dans le reste du monde. Le chatbot basé sur l’IA qui a fait fureur s’est avéré être un outil presque inestimable, dont l’utilisation fait débat en ce moment dans l’éducation. Sans aller plus loin, l’image de couverture de cet article a été créée avec un modèle d’IA. Ces capacités ont même valu à OpenAI l’attention de titans comme Microsoft. Cependant, cela a un prix : Travailleurs kenyans sous-payés et traumatisés pour empêcher ChatGPT d’être un désastre.

Selon une enquête magazine Tempsla société OpenAI aurait procédé à une sous-traitance assez controversée d’ouvriers venus facturer 1 euro par heure développer un système de protection. L’objectif était que ChatGPT ne renvoie pas de résultats problématiques incluant l’homophobie, le sexisme et d’autres discriminations.

Cela, comme cela s’est produit avec les modérateurs de plateformes comme TikTok ou Meta, a causé De graves problèmes de santé mentale pour les travailleurs en étant exposé à toutes sortes de contenus potentiellement dangereux, y compris des abus sexuels sur des enfants, des crimes de violence inhabituelle et une foule de problèmes problématiques.

Le problème de l’IA

Si vous êtes impliqué dans le monde de l’intelligence artificielle, vous saurez que dans l’histoire il y a eu des cas assez célèbres sur les préjugés racistes, sexistes, xénophobes et homophobes dans les IA. Il existe de nombreux cas. Sans aller plus loin, GPT-3, le modèle conversationnel antérieur à ChatGPT, montrait un grand potentiel mais avait une certaine tendance à répondre par des commentaires de ce style.

Pourquoi est facile à expliquer. Les IA de ce type sont généralement formées avec des informations collectées principalement sur Internet, avec des mots et des phrases (ainsi que des informations ou des données) présentes sur le réseau. Les ensembles de données d’entraînement pour entraîner les capacités linguistiques de GPT-3 et d’autres chatbots incluaient ces phrases, car Internet C’est plein de cette toxicité.

Le logo de Tay sur Twitter, le profil devenu raciste et machiste en une seule journée. Manuel Fernández Omicrono

La solution consistait à développer un système de sécurité supplémentaire, également doté d’une intelligence artificielle, qui pourrait éliminer les traces de ladite toxicité dans les ensembles de données utilisés. OpenAI s’est fait remarquer sur Facebookqui avait créé une feuille de route pour construire des intelligences artificielles capables de détecter ces contenus (comme les discours de haine, par exemple) et de les supprimer automatiquement de ses plateformes.

Cependant, cela a un problème. Former l’IA qui gère cette détection il est nécessaire de lui fournir précisément ce contenu. Certains exemples ont inclus des mots marqués comme de la violence, des discours de haine, des crimes ou des abus sexuels. Ainsi, l’outil serait capable de détecter ces discours et de les supprimer.

Obama, transformé en une personne blanche.

OpenAI a décidé de faire de même avec ChatGPT, en intégrant ledit outil dans le chatbot pour éliminer toutes les traces possibles de toxicité dans ses données d’entraînement, et les filtrer avant qu’ils n’atteignent l’utilisateur. De plus, cet outil serait utile pour d’autres modèles d’IA, ce qui réduirait les biais dangereux que ces modèles ont souvent.

travailleurs sous-traitants

OpenAI a alloué ladite tâche à une société d’externalisation au Kenya en novembre 2021. Il leur a envoyé des fragments de texte qui, selon Time, semblaient être tirés de des environnements les plus dangereux sur Internet, avec des situations qui décrivaient l’abus sexuel d’enfants, la bestialité, les meurtres, les suicides, la torture, l’automutilation, l’inceste et un très long etcetera. La société s’appelle sama et est basé à San Francisco, bien qu’il ait des projections dans des pays comme le Kenya, l’Ouganda ou l’Inde.

Sama se consacre à l’emploi de travailleurs pour étiqueter les données de clients tels que Microsoft, Meta ou Google, se présentant comme une entreprise « d’intelligence artificielle éthique ». Le salaire versé à ces travailleurs se situait entre 1,32 et 2 dollars de l’heure, selon les documents obtenus par la publication.

Illustration sur le contenu dangereux sur Internet. Géralt | Omicron

L’étiquetage de ces informations qui a été utilisé pour créer l’outil de prévention de la toxicité dans ChatGPT (qui a finalement été mis en œuvre) a obligé les employés à ont été exposés à toutes ces informations, et qu’ils devaient le consommer sous forme de texte. Les déclarations déchirantes des travailleurs de Sama à Time révèlent comment ils ont dû lire des atrocités authentiques qui comprenaient des situations sexuelles sinistres ou des histoires de crime troublantes.

Ces mêmes travailleurs ont déclaré au magazine qu’après avoir consommé ce contenu, certains ont fini par être affectés psychologiquement et émotionnellement. L’un d’eux a affirmé avoir eu des visions après avoir terminé sa journée de travail. Un autre devait lire une histoire qui incluait la pédophilie et la bestialité ou la bestialité. « Vous lirez une série de déclarations comme celle-là toute la semaine. Au moment où vendredi arrive, vous êtes dérangé de penser à ces images. »

Le travail a été si traumatisant que Sama a annulé l’intégralité du projet, coupant le travail avec OpenAI en février de l’année dernière, 8 mois avant la date de fin prévue. Les employés pourraient lire et étiqueter entre 150 et 250 passages de texte par roulement de neuf heures, avec des nombres de mots allant de 100 à 1 000.

Le plus frappant est que, comme dans d’autres entreprises, ces travailleurs se sont vu proposer une aide psychologique avec des « conseillers bien-être ». Les salariés ont assuré que ces séances « étaient inutiles ». En fait, ils ont fini par être un moyen de plus de faire pression sur eux pour qu’ils soient plus productifs pendant leurs quarts de travail.

[La inteligencia artificial de Facebook se rebela contra Zuckerberg: « Es un manipulador »]

Le salaire pour ce travail peut dépendre de l’ancienneté ou de l’âge. Le plus jeune pourrait recevoir la moitié 170 $ par mois, avec des bonus d’environ 70 dollars supplémentaires. Vous pourriez être payé, par exemple, 1,32 $ de l’heure en quarts de 9 heures. Sama a nié plusieurs points de l’enquête, comme celui qui fait référence aux objectifs de productivité ou aux administrations de la paie et au suivi de la santé mentale des travailleurs.

Les raisons de l’arrêt du travail entre Sama et OpenAI étaient variées, la raison principale étant qu’OpenAI a demandé à l’entreprise dans un projet séparé de compiler images à caractère sexuel ou violent pour vous aider à rendre vos outils d’IA plus sûrs. Selon la documentation recueillie par Time, Sama est venu livrer un lot de 1 400 images, certains classés sur la base du système d’étiquetage interne OpenAI comme C4, se référant à au contenu pédopornographique.

Tu pourrais aussi aimer…

Suivez les sujets qui vous intéressent

fr-02