Un groupement d’intérêt public a déposé une plainte fédérale américaine contre l’outil de recrutement d’intelligence artificielle, HireVueen 2019 pour pratiques d’embauche trompeuses. Le logiciel, qui a été adopté par des centaines d’entreprises, favorisait certaines expressions faciales, styles de parole et tons de voix, désavantageant de manière disproportionnée les candidats issus de minorités.
Le Centre d’information électronique sur la confidentialité a soutenu que les résultats de HireVue étaient « biaisé, non prouvable et non reproductible. » Cependant l’entreprise a depuis cessé d’utiliser la reconnaissance facialedes inquiétudes subsistent concernant les biais dans d’autres données biométriques, telles que les modèles de parole.
De même, Amazon a cessé d’utiliser son Outil de recrutement IAcomme indiqué en 2018, après avoir découvert qu’il s’agissait préjugés contre les femmes. L’algorithme, formé sur des CV à prédominance masculine soumis sur 10 ans, candidats masculins privilégiés en déclassant les candidatures contenant le mot « femmes » et en pénalisant les diplômées des collèges pour femmes. Les ingénieurs ont tenté de remédier à ces préjugés, mais n’ont pas pu garantir la neutralité, ce qui a conduit à l’annulation du projet.
Ces exemples mettent en évidence un préoccupation croissante en matière de recrutement et de sélection: alors que certaines entreprises sont utiliser l’IA pour éliminer les préjugés humains lors du recrutementcela peut souvent renforcer et amplifier inégalités existantes. Compte tenu de l’intégration rapide de L’IA dans la gestion des ressources humaines dans de nombreuses organisations, il est important de sensibiliser aux défis éthiques complexes que cela présente.
Comment l’IA peut créer des biais
Alors que les entreprises s’appuient de plus en plus sur des algorithmes pour prendre des décisions critiques en matière de recrutement, il est essentiel d’être conscient des moyens suivants : L’IA peut créer des biais lors du recrutement:
1. Biais dans les données de formation. Les systèmes d’IA s’appuient sur de vastes ensembles de données – appelés données d’entraînement – pour apprendre des modèles et prendre des décisions, mais leur précision et leur équité ne valent que par les données sur lesquelles ils sont formés. Si ces données contiennent des biais d’embauche historiques qui favorisent des données démographiques spécifiques, le L’IA adoptera et reproduira ces mêmes préjugés. L’outil d’IA d’Amazon, par exemple, a été formé sur la base de CV provenant d’un secteur à prédominance masculine, ce qui a conduit à des préjugés sexistes.
2. Échantillonnage de données erroné. Un échantillonnage de données défectueux se produit lorsque l’ensemble de données utilisé pour entraîner un algorithme n’est pas représentatif de la population plus large qu’il est censé servir. Dans le cadre d’un recrutement, cela peut arriver si les données de formation surreprésentent certains groupes – typiquement des hommes blancs – tout en sous-représentant les candidats marginalisés.
En conséquence, l’IA peut apprendre à privilégier les caractéristiques et les expériences du groupe surreprésenté tout en pénalisant ou en négligeant ceux issus de groupes sous-représentés. Par exemple, les technologies d’analyse faciale ont il a été démontré que les taux d’erreur sont plus élevés pour les personnes racialiséesparticulièrement les femmes racialisées, car elles sont sous-représentées dans les données utilisées pour former ces systèmes.
3. Biais dans la sélection des fonctionnalités. Lors de la conception de systèmes d’IA, les développeurs choisissent certaines fonctionnalitésdes attributs ou des caractéristiques à prioriser ou à peser plus lourdement lorsque l’IA prend des décisions. Mais ceux-ci les fonctionnalités sélectionnées peuvent conduire à des résultats injustes et biaisés et perpétuer les inégalités préexistantes.
Par exemple, l’IA pourrait valoriser de manière disproportionnée les diplômés d’universités prestigieuses, historiquement peu connues. fréquenté par des personnes issues de milieux privilégiés. Ou bien, il pourrait donner la priorité aux expériences de travail qui sont plus courantes parmi certains groupes démographiques.
Ce problème est aggravé lorsque les fonctionnalités sélectionnées sont proxys pour les caractéristiques protégéestel que le code postal, qui peut être fortement lié à race et statut socio-économique en raison de la ségrégation historique du logement.
4. Manque de transparence. De nombreux systèmes d’IA fonctionnent comme des « boîtes noires », ce qui signifie que leurs processus décisionnels sont opaques. Ce manque de transparence rend difficile pour les organisations d’identifier les biais possibles et la manière dont ils affectent les décisions d’embauche.
Sans comprendre comment un outil d’IA prend des décisions, il est difficile de corriger des résultats biaisés ou de garantir l’équité. Amazon et HireVue ont tous deux été confrontés à ce problème ; les utilisateurs et les développeurs ont eu du mal à comprendre comment les systèmes évaluaient les candidats et pourquoi certains groupes étaient exclus.
5. Manque de surveillance humaine. Même si l’IA joue un rôle important dans de nombreux processus décisionnels, elle devrait augmenter, plutôt que remplacer, le jugement humain. Une dépendance excessive à l’IA sans surveillance humaine adéquate peut conduire à des biais incontrôlés. Ce problème est exacerbé lorsque les professionnels qui recrutent font davantage confiance à l’IA qu’à leur propre jugement, croyant en l’infaillibilité de la technologie.
Surmonter les biais algorithmiques lors du recrutement
Pour atténuer ces problèmes, les entreprises doivent adopter des stratégies qui privilégient l’inclusivité et la transparence dans les processus de recrutement basés sur l’IA. Vous trouverez ci-dessous quelques solutions clés pour surmonter les préjugés de l’IA :
1. Diversifiez les données de formation. L’un des moyens les plus efficaces de lutter contre les préjugés de l’IA est de garantir les données de formation sont inclusives, diversifiées et représentatives d’un large éventail de candidats. Cela signifie inclure des données provenant de divers milieux raciaux, ethniques, de genre, socio-économiques et éducatifs.
2. Effectuer régulièrement des audits de partialité. Des audits fréquents et approfondis des systèmes d’IA devraient être menés pour identifier les tendances en matière de préjugés et de discrimination. Cela comprend l’examen des résultats de l’algorithme, des processus décisionnels et de son impact sur différents groupes démographiques.
3. Mettez en œuvre des algorithmes soucieux de l’équité. Utiliser un logiciel d’IA qui intègre des contraintes d’équité et qui est conçu pour prendre en compte et atténuer les préjugés en équilibrant les résultats pour les groupes sous-représentés. Cela peut inclure l’intégration de mesures d’équité telles que l’égalité des chances, la modification des données de formation pour montrer moins de biais et l’ajustement des prédictions du modèle en fonction de critères d’équité pour accroître l’équité.
4. Augmentez la transparence. Recherchez des solutions d’IA qui offrent un aperçu de leurs algorithmes et de leurs processus de prise de décision pour faciliter l’identification et la résolution des biais potentiels. De plus, assurez-vous de divulguer toute utilisation de l’IA dans le processus d’embauche aux candidats pour maintenir la transparence avec vos candidats et autres parties prenantes.
5. Maintenir la surveillance humaine. Pour garder le contrôle des algorithmes de recrutement, les managers et les dirigeants doivent examiner activement les décisions basées sur l’IA, en particulier lors des choix finaux de recrutement. Des recherches émergentes mettent en évidence le rôle essentiel de la surveillance humaine dans se prémunir contre les risques posés par les applications d’IA. Toutefois, pour que cette surveillance soit efficace et significative, les dirigeants doivent veiller à ce que les considérations éthiques fassent partie du processus d’embauche et promouvoir une utilisation responsable, inclusive et éthique de l’IA.
Les biais dans les algorithmes de recrutement soulèvent de sérieuses préoccupations éthiques et exigent une plus grande attention à l’utilisation consciente, responsable et inclusive de l’IA. Comprendre et aborder les considérations éthiques et les préjugés liés au recrutement basé sur l’IA est essentiel pour garantir des résultats de recrutement plus équitables et empêcher la technologie de renforcer les préjugés systémiques.
Cet article est republié à partir de La conversation sous licence Creative Commons. Lire le article original.