Sexismus am Arbeitsplatz ist ein bekanntes Problem, zum Beispiel das Lohngefälle oder die Tatsache, dass mehr Männer als Frauen in höheren Positionen arbeiten. Dieser (unbewusste) Sexismus beginnt manchmal schon bei der Bewerbung, gerade jetzt, wo immer mehr Jobbörsen Algorithmen einsetzen, um ihre Kandidaten zu finden.
Von Mirte van RooijenDie meisten Menschen kennen Algorithmen hauptsächlich aus sozialen Medien wie Facebook, Instagram und TikTok. Der Computer erhält Informationen vom Benutzer und passt den Inhalt auf der Timeline entsprechend an. Weniger bekannt ist, dass auch das Unternehmensnetzwerk LinkedIn oder Jobbörsen wie die Nationale Vacaturebank einen Algorithmus verwenden.
Dieser Algorithmus basiert auf künstlicher Intelligenz (KI): der Fähigkeit eines Computers, Verbindungen zwischen den ihm präsentierten Daten herzustellen. Das ist für Jobbörsen sinnvoll, weil ein Algorithmus den Auswahlprozess beschleunigt. Der Bewerber lädt auf der Seite einen Lebenslauf hoch und der Algorithmus prüft dann, welche Stellenangebote am besten passen.
KI achtet beispielsweise nicht nur auf den Wortgebrauch, sondern auch auf das Geschlecht. „Ein Computer lernt, indem er Muster in Daten erkennt, was sich sehr von Menschen unterscheidet. Er wird den Kontext, die Ursache oder die Folgen eines Musters nicht verstehen“, sagt Harrie Oosterhuis, Dozent für maschinelles Lernen an der Radboud-Universität in Nijmegen. „Dadurch wird sichergestellt, dass reale Vorurteile auch in der KI landen. Das gilt auch für Sexismus am Arbeitsplatz.“
KI ist sich der Diskriminierung nicht „bewusst“.
Oosterhuis hat zu a beigetragen Forschung über die Wirkung von Algorithmen auf Vakanzübereinstimmungen. Zwölf Millionen offene Stellen und neuntausend Lebensläufe aus der Datenbank der National Vacature Bank wurden zu diesem Zweck untersucht.
„Angenommen, Frauen werden oft als Sekretärinnen eingestellt. Dann hält der Algorithmus das für objektiv. Die Bewerberinnen sehen dann schneller eine offene Stelle als Sekretärin, denn dort gibt es die meisten Matches“, erklärt er.
Das gilt beispielsweise auch für Männer- und IKT-Stellen oder Jobs als Lkw-Fahrer. „Die KI kann nicht selbst feststellen, dass sie diskriminiert. Die künstliche Intelligenz sucht nach Ähnlichkeiten und arbeitet nur mit den Informationen, die sie hat.“
Die Männer sind also sicherlich im Vorteil, wenn eine Baustelle mit diesem Algorithmus arbeitet.
Die Forscher haben sich auch angesehen, ob die KI das Geschlecht der anonymisierten Lebensläufe bestimmen kann und welche Auswirkungen dies auf den Match mit einer Vakanz hat. „Zum Beispiel haben wir alle Wörter, die ein Geschlecht in den Lebensläufen haben, durch einen geschlechtsneutralen Begriff ersetzt. Denken Sie zum Beispiel an das Wort sie statt an er oder sie“, sagt Oosterhuis. „Das hat sich als wirkungslos herausgestellt.“ In rund 86 Prozent der Fälle tippte die KI noch auf das Geschlecht des Bewerbers.
Daher ist es für einen Antragsteller sehr schwierig, die diskriminierende Wirkung der KI zu umgehen. In fast allen Fällen erkennt die künstliche Intelligenz das Geschlecht des Bewerbers. Das ist eine wichtige Information für den Computer, denn sie wirkt sich auch darauf aus, welche Vakanz er mit dem Bewerber abgleicht.
Männer bekommen Stellen, die durchschnittlich 1 Euro pro Stunde mehr zahlen
Die gleiche Untersuchung zeigt, dass der Algorithmus Männern im Durchschnitt besser bezahlte Positionen zuweist. „Wir haben festgestellt, dass Frauen Stellen angeboten werden, die durchschnittlich 1 Euro pro Stunde weniger zahlen als die Stellenangebote, die männliche Bewerber erhalten“, sagt Oosterhuis. „Die Männer haben also definitiv einen Vorteil, wenn eine Baustelle mit diesem Algorithmus arbeitet.“
Arbeitgeber sind sich dieser Diskriminierung nicht bewusst Forschung des Instituts für Menschenrechte. 96 Prozent der Arbeitgeber verwenden manchmal einen Algorithmus wie den von LinkedIn, wenn sie eine Stelle veröffentlichen. Aber nur 23 Prozent der Arbeitgeber wissen, dass die Algorithmen ein Diskriminierungsrisiko bergen.
Nach Angaben des Kollegiums sind es zu wenige. „Als Arbeitgeber sollten Sie nicht wollen, dass Ihr Einstellungs- und Auswahlverfahren diskriminierend ist. Wenn ein Kandidat beispielsweise aufgrund der ethnischen Zugehörigkeit oder des Geschlechts weniger Chancen hat, wird Ihr Verfahren zu einer Art Online-Geburtslotterie“, sagt ein Sprecher des Niederländisches Institut für Menschenrechte. „Ein diskriminierendes Einstellungs- und Auswahlverfahren ist rechtswidrig. Dies gilt auch dann, wenn Sie als Arbeitgeber nicht wussten, dass die eingesetzte Einstellungstechnik diskriminierend war.“
Das Recht zu wissen, dass Algorithmen verwendet werden
Stellt ein Arbeitgeber Stellenangebote online, sollte er sich beim Softwareanbieter erkundigen, nach welchen Kriterien der Algorithmus die Ergebnisse auswählt und ob die Software auf Diskriminierung geprüft wurde. „Als Arbeitgeber sind Sie für die Systeme verantwortlich, die Sie bei der Einstellung und Auswahl verwenden. Daher ist es wichtig, dass Sie sich bewusst sind, dass die hier verwendeten Algorithmen zu Diskriminierung führen können.“
Der Vorstand rät außerdem, immer zu kommunizieren, dass ein Algorithmus im Rekrutierungsprozess verwendet wird. Dann weiß der Bewerber auch, woran er ist. „Wenn Sie zum Beispiel in einem Verfahren abgelehnt wurden, in dem eine (halbautomatische) Auswahl getroffen wurde, fragen Sie, warum Sie abgelehnt wurden. Sie haben das Recht, zu fragen, wie Ihre Daten verwendet wurden. Wenn das Unternehmen nicht erklären kann, warum Sie abgelehnt wurden durch einen Algorithmus, dann ist es wichtig, dass Arbeitssuchende uns das melden“, sagt der Sprecher.
Laut Oosterhuis ist es nicht so einfach, dafür zu sorgen, dass KI-Systeme nicht mehr diskriminieren. „Wir haben uns nur das Geschlecht angesehen, aber es besteht eine gute Chance, dass die KI auch irgendeine Form von Altersdiskriminierung hat oder sich den Hintergrund von jemandem ansieht. Das passiert im wirklichen Leben, also auch in Computerprogrammen. Von einem sind wir noch weit entfernt Computer mit einer 100 Prozent fairen Vorgehensweise.“
Dieser Inhalt kann leider nicht angezeigt werdenWir haben keine Erlaubnis für die notwendigen Cookies. Bitte akzeptieren Sie die Cookies, um diesen Inhalt anzuzeigen.