KI kann rassistische Vorurteile verstärken, aber richtig eingesetzt könnte sie die Einstellungspraktiken integrativer gestalten

Die Einstellung von Mitarbeitern wird normalerweise als Paradebeispiel für algorithmische Voreingenommenheit genannt. Hier wird die Tendenz, bestimmte Gruppen gegenüber anderen zu bevorzugen, in einem KI-System, das für die Ausführung einer bestimmten Aufgabe konzipiert ist, versehentlich fixiert.

Es gibt unzählige Geschichten darüber. Das vielleicht bekannteste Beispiel ist wann Amazonas habe versucht, KI bei der Rekrutierung einzusetzen. In diesem Fall wurden Lebensläufe als Daten zum Trainieren oder Verbessern dieser KI verwendet.

Da die meisten Lebensläufe von Männern stammten, lernte die KI, alles herauszufiltern, was mit Frauen zu tun hatte, etwa die Präsidentschaft des Frauenschachclubs oder die Absolventin einer Frauenhochschule. Es versteht sich von selbst, dass Amazon das System letztendlich nicht weiter verbreitet hat.

Ebenso die Praxis des Filmens Videointerviews und diese dann mithilfe einer KI auf ihre Eignung hin zu analysieren, wird dafür regelmäßig kritisiert Potenzial, voreingenommene Ergebnisse zu erzielen. Befürworter von KI bei der Personalbeschaffung schlagen jedoch vor, dass sie die Einstellungsprozesse durch die Reduzierung fairer und transparenter macht menschliche Vorurteile. Dies wirft die Frage auf: Reproduziert der Einsatz von KI bei der Einstellung zwangsläufig Voreingenommenheit, oder könnte sie die Einstellung tatsächlich gerechter machen?

Aus technischer Sicht bezieht sich algorithmischer Bias auf Fehler die zu ungleichen Ergebnissen für verschiedene Gruppen führen. Allerdings kann algorithmische Verzerrung nicht als Fehler betrachtet werden, sondern auch als eine Funktion der Gesellschaft. KI basiert oft auf Daten aus der realen Welt und diese Datensätze spiegeln die Gesellschaft wider.

Wenn beispielsweise farbige Frauen in Datensätzen unterrepräsentiert sind, hat Gesichtserkennungssoftware einen höheren Stellenwert Fehlerrate bei der Identifizierung von Frauen mit dunklerer Hautfarbe. Das Gleiche gilt für Videointerviews Anliegen dass der Tonfall, der Akzent oder geschlechts- und rassenspezifische Sprachmuster die Beurteilungen beeinflussen können.

Mehrere Vorurteile

Andere Beispiel besteht darin, dass die KI anhand der Daten lernen könnte, dass Personen mit dem Namen „Mark“ besser abschneiden als Personen mit dem Namen „Mary“ und daher höher eingestuft werden. Bestehende Vorurteile in der Gesellschaft spiegeln sich in Daten wider und werden durch sie verstärkt.

Natürlich sind Daten nicht die einzige Möglichkeit, durch die KI-gestützte Einstellungen verzerrt sein könnten. Beim Entwerfen greift die KI auf das Fachwissen von a zurück Bereich Von Menschen wie Datenwissenschaftlern und Experten für maschinelles Lernen (wo ein KI-System trainiert werden kann, um seine Aufgaben zu verbessern), Programmierern, Personalfachleuten, Personalvermittlern, Arbeits- und Organisationspsychologen und Personalmanagern wird dies oft nur behauptet 12 % der Forscher im Bereich maschinelles Lernen sind Frauen. Dies gibt Anlass zur Sorge, dass die Gruppe der Menschen, die diese Technologien entwerfen, eher unterschiedlich ist eng.

Auch maschinelle Lernprozesse können verzerrt sein. Beispielsweise stellte ein Unternehmen, das Daten nutzt, um Unternehmen bei der Einstellung von Programmierern zu unterstützen, fest, dass ein starker Prädiktor für gute Programmierkenntnisse darin besteht, einen bestimmten Ort zu besuchen Japanischer Cartoon Webseite. Wenn Sie theoretisch Programmierer einstellen und solche Daten für maschinelles Lernen verwenden möchten, könnte eine KI vorschlagen, sich an Personen zu wenden, die an der Universität Programmieren studiert haben und „Programmierer“ in ihrer aktuellen Berufsbezeichnung haben und Ähnliches Japanische Cartoons. Während es sich bei den ersten beiden Kriterien um berufliche Anforderungen handelt, ist das letzte Kriterium nicht für die Ausübung der Tätigkeit erforderlich und sollte daher nicht verwendet werden. Daher erfordert die Gestaltung von KI in Einstellungstechnologien sorgfältige Überlegungen, wenn wir Algorithmen entwickeln wollen, die Inklusion unterstützen.

Folgenabschätzungen und KI-Audits die systematisch auf diskriminierende Auswirkungen prüfen, sind von entscheidender Bedeutung, um sicherzustellen, dass KI bei der Einstellung keine Vorurteile aufrechterhält. Die Ergebnisse können dann zur Optimierung und Optimierung genutzt werden anpassen die Technologie, um sicherzustellen, dass solche Vorurteile nicht erneut auftreten.

Sorgfältige Überlegung

Die Anbieter der Einstellungstechnologien haben unterschiedliche Tools entwickelt, wie z. B. Auditing, um die Ergebnisse anhand geschützter Merkmale zu überprüfen, oder die Überwachung auf Diskriminierung durch die Identifizierung männlicher und weiblicher Wörter. Daher können Audits ein nützliches Instrument sein, um zu bewerten, ob Einstellungstechnologien zu voreingenommenen Ergebnissen führen, und um dies zu korrigieren.

Führt der Einsatz von KI bei der Personalbeschaffung zwangsläufig zu Diskriminierung? In meinem letzten ArtikelIch habe gezeigt, dass, wenn KI auf naive Weise eingesetzt wird, ohne Sicherheitsvorkehrungen zur Vermeidung algorithmischer Vorurteile zu treffen, die Technologie in der Gesellschaft bestehende Vorurteile wiederholt und verstärkt und möglicherweise auch neue Vorurteile schafft, die es vorher nicht gab.

Wenn jedoch bei der Umsetzung die Inklusion in den zugrunde liegenden Daten, in den angenommenen Designs und in der Art und Weise, wie Entscheidungen getroffen werden, berücksichtigt wird, könnte die KI-gestützte Einstellung von Mitarbeitern tatsächlich ein Instrument sein, um mehr Inklusion zu schaffen.

KI-gestütztes Recruiting bedeutet nicht, dass die endgültigen Einstellungsentscheidungen Algorithmen überlassen werden oder überlassen werden sollten. Solche Technologien können zur Filterung von Kandidaten eingesetzt werden, die endgültige Einstellungsentscheidung liegt jedoch bei den Menschen. Daher kann die Einstellung von Mitarbeitern verbessert werden, wenn KI unter Berücksichtigung von Vielfalt und Inklusion implementiert wird. Aber wenn die endgültige Einstellungsentscheidung von einem Mitarbeiter getroffen wird Manager Wer nicht weiß, wie man ein integratives Umfeld schafft, kann sich erneut Voreingenommenheit einschleichen.

Bereitgestellt von The Conversation

Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lies das originaler Artikel.

ph-tech