Le sexisme au travail est un problème bien connu, par exemple l’écart salarial ou le fait que plus d’hommes que de femmes occupent des postes plus élevés. Ce sexisme (inconscient) commence parfois dès la candidature, surtout maintenant que de plus en plus de jobboards utilisent des algorithmes pour trouver leurs candidats.
Par Mirte van RooijenLa plupart des gens connaissent les algorithmes principalement des médias sociaux, tels que Facebook, Instagram et TikTok. L’ordinateur obtient des informations de l’utilisateur et ajuste le contenu de la chronologie en conséquence. Ce que l’on sait moins, c’est que le réseau d’entreprises LinkedIn ou les jobboards comme Nationale Vacaturebank utilisent aussi un algorithme.
Cet algorithme fonctionne sur la base de l’intelligence artificielle (IA) : la capacité d’un ordinateur à établir des liens entre les données qui lui sont présentées. Ceci est utile pour les sites d’emploi, car un algorithme accélère le processus de sélection. Le candidat télécharge un CV sur le site et l’algorithme examine ensuite les postes vacants qui lui conviennent le mieux.
L’IA prête non seulement attention, par exemple, à l’utilisation des mots, mais aussi au genre. « Un ordinateur apprend en reconnaissant des modèles dans les données, ce qui est très différent des humains. Il ne comprendra pas le contexte, la cause ou les conséquences d’un modèle », explique Harrie Oosterhuis, maître de conférences en apprentissage automatique à l’Université Radboud de Nimègue. « Cela garantit que les préjugés du monde réel se retrouvent également dans l’IA. Cela s’applique également au sexisme sur le lieu de travail. »
L’IA n’est pas « consciente » de la discrimination
Oosterhuis a contribué à un rechercher sur l’effet des algorithmes sur les correspondances de vacance. Douze millions d’offres d’emploi et neuf mille CV de la base de données de la Banque nationale des vacances ont été examinés à cette fin.
« Supposons que des femmes soient souvent embauchées comme secrétaires. Ensuite, l’algorithme pense que c’est objectif. Les candidates verront alors plus rapidement un poste vacant pour une secrétaire, car c’est là qu’il y a le plus de correspondances », explique-t-il.
Cela s’applique également, par exemple, aux hommes et aux postes vacants dans les TIC ou aux emplois de chauffeur de camion. « L’IA ne peut pas déterminer par elle-même qu’elle est discriminante. L’intelligence artificielle recherche des similitudes et ne fonctionne qu’avec les informations dont elle dispose. »
Les hommes sont donc certainement avantagés si un chantier travaille avec cet algorithme.
Les chercheurs ont également examiné si l’IA pouvait déterminer le sexe des CV anonymisés et quel effet cela avait sur la correspondance avec un poste vacant. « Par exemple, nous avons remplacé tous les mots qui ont un genre dans les CV par un terme non sexiste. Par exemple, pensez au mot eux au lieu de lui ou elle », explique Oosterhuis. « Cela s’est avéré n’avoir aucun effet. » Dans environ 86% des cas, l’IA a encore deviné le sexe du demandeur.
Il est donc très difficile pour un demandeur de contourner l’effet discriminatoire de l’AI. Dans presque tous les cas, l’intelligence artificielle reconnaît le sexe du demandeur. Il s’agit d’informations importantes pour l’ordinateur, car elles ont également un effet sur le poste vacant auquel il correspond avec le candidat.
Les hommes obtiennent des postes vacants qui paient en moyenne 1 euro de plus par heure
La même recherche montre que l’algorithme attribue en moyenne des postes mieux rémunérés aux hommes. « Nous avons constaté que les femmes se voient proposer des postes vacants qui paient en moyenne 1 euro de moins par heure que les postes vacants que les candidats masculins reçoivent », explique Oosterhuis. « Ainsi, les hommes ont définitivement un avantage si un site d’emploi fonctionne avec cet algorithme. »
Les employeurs sont peu conscients de cette discrimination, selon rechercher de l’Institut des droits de l’homme. 96 % des employeurs utilisent parfois un algorithme, comme celui de LinkedIn, lorsqu’ils publient une offre d’emploi. Mais seuls 23 % des employeurs savent que les algorithmes comportent un risque de discrimination.
Selon le Collège, il y en a trop peu. « En tant qu’employeur, vous ne devez pas souhaiter que votre procédure de recrutement et de sélection soit discriminatoire. Si un candidat a moins d’opportunités en raison, par exemple, de son origine ethnique ou de son sexe, votre procédure devient une sorte de loterie de naissance en ligne », déclare un porte-parole de la Institut néerlandais des droits de l’homme. « Une procédure de recrutement et de sélection discriminatoire est contraire à la loi. C’est également le cas si vous, en tant qu’employeur, n’étiez pas au courant que la technologie de recrutement utilisée était discriminatoire. »
Le droit de savoir que des algorithmes sont utilisés
Si un employeur met des offres d’emploi en ligne, il doit se renseigner auprès du fournisseur de logiciels selon quels critères l’algorithme sélectionne les résultats et si le logiciel a été contrôlé pour la discrimination. « En tant qu’employeur, vous êtes responsable des systèmes que vous utilisez pour le recrutement et la sélection. Il est donc essentiel que vous soyez conscient que les algorithmes utilisés ici peuvent conduire à la discrimination. »
Le Conseil conseille également de toujours communiquer qu’un algorithme est utilisé dans le processus de recrutement. Ensuite, le demandeur sait également où il en est. « Par exemple, si vous avez été rejeté dans une procédure dans laquelle une sélection (semi-automatique) a été effectuée, demandez pourquoi vous avez été rejeté. Vous avez le droit de demander comment vos données ont été utilisées. Si l’entreprise ne peut pas expliquer pourquoi vous avez été rejeté par un algorithme, alors c’est important que les demandeurs d’emploi nous le signalent », explique le porte-parole.
S’assurer que les systèmes d’IA ne font plus de discrimination n’est pas aussi simple qu’il y paraît, selon Oosterhuis. « Nous n’avons regardé que le genre, mais il y a de fortes chances que l’IA ait aussi une forme d’âgisme ou regarde le passé de quelqu’un. Cela se produit dans la vraie vie, donc aussi dans les programmes informatiques. Nous sommes encore loin d’un ordinateur avec un plan d’action 100% juste. »
Malheureusement, ce contenu ne peut pas être affichéNous n’avons pas l’autorisation pour les cookies nécessaires. Veuillez accepter les cookies pour voir ce contenu.