Eine öffentliche Interessengruppe reichte eine US-Bundesbeschwerde gegen das Einstellungstool für künstliche Intelligenz, HireVue, einim Jahr 2019 wegen betrügerischer Einstellungspraktiken. Die Software, die von Hunderten von Unternehmen übernommen wurde, begünstigte bestimmte Gesichtsausdrücke, Sprechstile und Stimmlagen und benachteiligte Minderheitskandidaten unverhältnismäßig.
Das elektronische Datenschutz-Informationszentrum argumentierte, die Ergebnisse von HireVue seien „voreingenommen, nicht beweisbar und nicht reproduzierbar.“ Obwohl Das Unternehmen hat die Gesichtserkennung inzwischen nicht mehr eingesetztEs bestehen weiterhin Bedenken hinsichtlich Verzerrungen in anderen biometrischen Daten, beispielsweise Sprachmustern.
Ebenso hat Amazon die Nutzung eingestellt KI-Rekrutierungstoolwie im Jahr 2018 berichtet, nachdem festgestellt wurde, dass dies der Fall war voreingenommen gegenüber Frauen. Der Algorithmus wurde auf über einen Zeitraum von 10 Jahren eingereichten, von Männern dominierten Lebensläufen trainiert. bevorzugte männliche Kandidaten durch die Herabstufung von Bewerbungen, die das Wort „Frauen“ enthielten, und die Bestrafung von Absolventen von Frauenhochschulen. Die Ingenieure versuchten, diese Vorurteile auszuräumen, konnten jedoch keine Neutralität garantieren, was zur Annullierung des Projekts führte.
Diese Beispiele verdeutlichen a wachsendes Interesse an der Rekrutierung und Auswahl: während einige Unternehmen sind Einsatz von KI, um menschliche Vorurteile bei der Einstellung zu beseitigenes kann oft verstärken und verstärken bestehende Ungleichheiten. Angesichts der schnellen Integration von KI im Personalmanagement In vielen Organisationen ist es wichtig, das Bewusstsein für die damit verbundenen komplexen ethischen Herausforderungen zu schärfen.
Wie KI Voreingenommenheit erzeugen kann
Da sich Unternehmen zunehmend auf Algorithmen verlassen, um wichtige Einstellungsentscheidungen zu treffen, ist es wichtig, die folgenden Möglichkeiten zu kennen KI kann zu Voreingenommenheit bei der Einstellung führen:
1. Verzerrung in den Trainingsdaten. KI-Systeme stützen sich auf große Datensätze – sogenannte Trainingsdaten –, um Muster zu lernen und Entscheidungen zu treffen, aber ihre Genauigkeit und Fairness sind nur so gut wie die Daten, auf denen sie trainiert werden. Wenn diese Daten historische Einstellungsverzerrungen enthalten, die bestimmte demografische Merkmale begünstigen, ist dies der Fall Die KI wird dieselben Vorurteile übernehmen und reproduzieren. Das KI-Tool von Amazon wurde beispielsweise anhand von Lebensläufen aus einer männerdominierten Branche trainiert, was zu einer geschlechtsspezifischen Voreingenommenheit führte.
2. Fehlerhafte Datenerfassung. Eine fehlerhafte Datenstichprobe tritt auf, wenn der Datensatz, der zum Trainieren eines Algorithmus verwendet wird, nicht repräsentativ für die breitere Bevölkerung ist, die er bedienen soll. Im Zusammenhang mit der Einstellung kann dies passieren, wenn Trainingsdaten repräsentieren bestimmte Gruppen überrepräsentiert – typischerweise weiße Männer –, während marginalisierte Kandidaten unterrepräsentiert sind.
Dadurch kann die KI es lernen Bevorzugen Sie die Eigenschaften und Erfahrungen der überrepräsentierten Gruppe während diejenigen aus unterrepräsentierten Gruppen bestraft oder übersehen werden. Zum Beispiel Gesichtsanalysetechnologien nachweislich höhere Fehlerraten bei rassistisch motivierten Personeninsbesondere rassistisch motivierte Frauen, da sie in den Daten, die zum Training dieser Systeme verwendet werden, unterrepräsentiert sind.
3. Verzerrung bei der Funktionsauswahl. Beim Entwurf von KI-Systemen Entwickler wählen bestimmte Funktionen ausAttribute oder Merkmale, die bei der Entscheidungsfindung der KI priorisiert oder stärker gewichtet werden sollen. Aber diese Ausgewählte Merkmale können zu unfairen, voreingenommenen Ergebnissen führen und bestehende Ungleichheiten aufrechterhalten.
Beispielsweise könnte KI Absolventen renommierter Universitäten einen überproportionalen Stellenwert einräumen, was in der Vergangenheit der Fall war an denen Menschen aus privilegierten Verhältnissen teilnehmen. Oder es könnte Berufserfahrungen Vorrang einräumen, die bei bestimmten Bevölkerungsgruppen häufiger vorkommen.
Dieses Problem wird noch verschärft, wenn die ausgewählten Funktionen vorhanden sind Proxys für geschützte Merkmalewie z. B. Postleitzahl, mit der ein enger Zusammenhang bestehen kann Rasse und sozioökonomischer Status aufgrund der historischen Wohnsegregation.
4. Mangelnde Transparenz. Viele KI-Systeme fungieren als „Black Boxes“, das heißt, ihre Entscheidungsprozesse sind undurchsichtig. Dieser Mangel an Transparenz macht es für Unternehmen schwierig zu erkennen, wo Voreingenommenheit bestehen könnte und wie sich diese auf Einstellungsentscheidungen auswirkt.
Ohne Einblick in die Art und Weise, wie ein KI-Tool Entscheidungen trifft, ist es schwierig, voreingenommene Ergebnisse zu korrigieren oder Fairness sicherzustellen. Sowohl Amazon als auch HireVue waren mit diesem Problem konfrontiert; Benutzer und Entwickler hatten Schwierigkeiten zu verstehen, wie die Systeme Kandidaten bewerteten und warum bestimmte Gruppen ausgeschlossen wurden.
5. Mangelnde menschliche Aufsicht. Während KI in vielen Entscheidungsprozessen eine wichtige Rolle spielt, sollte sie das menschliche Urteilsvermögen eher ergänzen als ersetzen. Eine übermäßige Abhängigkeit von KI ohne angemessene menschliche Aufsicht kann zu unkontrollierten Vorurteilen führen. Dieses Problem wird noch verschärft, wenn Personalvermittler der KI mehr vertrauen als ihrem eigenen Urteilsvermögen und an die Unfehlbarkeit der Technologie glauben.
Überwindung algorithmischer Voreingenommenheit bei der Einstellung
Um diese Probleme zu entschärfen, müssen Unternehmen Strategien einführen, die Inklusivität und Transparenz in KI-gesteuerten Einstellungsprozessen in den Vordergrund stellen. Nachfolgend finden Sie einige wichtige Lösungen zur Überwindung von KI-Vorurteilen:
1. Trainingsdaten diversifizieren. Eine der effektivsten Möglichkeiten, KI-Voreingenommenheit zu bekämpfen, ist die Sicherstellung Trainingsdaten sind umfassend, vielfältig und repräsentativ einer breiten Palette von Kandidaten. Dies bedeutet, dass Daten mit unterschiedlichem Rassen-, ethnischen, geschlechtsspezifischen, sozioökonomischen und bildungsbezogenen Hintergrund einbezogen werden.
2. Führen Sie regelmäßige Bias-Audits durch. Es sollten häufige und gründliche Prüfungen von KI-Systemen durchgeführt werden, um Voreingenommenheits- und Diskriminierungsmuster zu erkennen. Dazu gehört die Untersuchung der Ergebnisse des Algorithmus, der Entscheidungsprozesse und seiner Auswirkungen auf verschiedene demografische Gruppen.
3. Implementieren Sie fairnessbewusste Algorithmen. Verwenden Sie KI-Software, die Fairness-Beschränkungen berücksichtigt und ist Entwickelt, um Voreingenommenheit zu berücksichtigen und abzumildern durch ausgewogene Ergebnisse für unterrepräsentierte Gruppen. Dies kann die Integration von Fairness-Metriken wie Chancengleichheit, die Änderung von Trainingsdaten, um weniger Verzerrungen zu zeigen, und die Anpassung von Modellvorhersagen auf der Grundlage von Fairness-Kriterien umfassen, um die Gerechtigkeit zu erhöhen.
4. Erhöhen Sie die Transparenz. Suchen Sie nach KI-Lösungen, die Einblicke in ihre Algorithmen und Entscheidungsprozesse bieten, um die Identifizierung und Beseitigung potenzieller Vorurteile zu erleichtern. Stellen Sie außerdem sicher, dass dies der Fall ist Offenlegen Sie jeglichen Einsatz von KI im Einstellungsprozess an Kandidaten, um die Transparenz gegenüber Ihren Bewerbern und anderen Stakeholdern aufrechtzuerhalten.
5. Behalten Sie die menschliche Aufsicht bei. Um die Kontrolle über Einstellungsalgorithmen zu behalten, müssen Manager und Führungskräfte KI-gesteuerte Entscheidungen aktiv überprüfen, insbesondere wenn sie endgültige Einstellungsentscheidungen treffen. Neue Forschungsergebnisse unterstreichen die entscheidende Rolle der menschlichen Aufsicht Absicherung gegen die Risiken durch KI-Anwendungen gestellt. Damit diese Aufsicht jedoch wirksam und sinnvoll ist, müssen Führungskräfte sicherstellen, dass ethische Überlegungen Teil des Einstellungsprozesses sind und den verantwortungsvollen, integrativen und ethischen Einsatz von KI fördern.
Voreingenommenheit bei der Einstellung von Algorithmen wirft ernsthafte ethische Bedenken auf und erfordert eine stärkere Aufmerksamkeit für den achtsamen, verantwortungsvollen und integrativen Einsatz von KI. Um gerechtere Einstellungsergebnisse zu gewährleisten und zu verhindern, dass Technologie systemische Vorurteile verstärkt, ist es wichtig, die ethischen Überlegungen und Vorurteile bei der Einstellung von KI-gestützten Einstellungen zu verstehen und anzugehen.
Dieser Artikel wurde erneut veröffentlicht von Das Gespräch unter einer Creative Commons-Lizenz. Lesen Sie die Originalartikel.