Nach monatelangen Verzögerungen hat New York City heute mit der Durchsetzung eines Gesetzes begonnen, das Arbeitgeber, die Algorithmen zur Einstellung, Einstellung oder Beförderung von Mitarbeitern verwenden, dazu verpflichtet, diese Algorithmen einer unabhängigen Prüfung vorzulegen – und die Ergebnisse zu veröffentlichen. Das Gesetz – New York City Local Law 144 – ist das erste seiner Art im Land und schreibt auch vor, dass Unternehmen, die diese Art von Algorithmen verwenden, Offenlegungen gegenüber Mitarbeitern oder Bewerbern vornehmen.
In den Berichten, die Unternehmen veröffentlichen müssen, müssen mindestens die von ihnen verwendeten Algorithmen sowie eine „durchschnittliche Punktzahl“ aufgeführt sein, die Kandidaten verschiedener Rassen, Ethnien und Geschlechter wahrscheinlich von den genannten Algorithmen erhalten – in Form einer Punktzahl , Klassifizierung oder Empfehlung. Es muss auch die „Wirkungsverhältnisse“ der Algorithmen auflisten, die das Gesetz als die durchschnittliche, vom Algorithmus vorgegebene Punktzahl aller Personen in einer bestimmten Kategorie (z. B. schwarze männliche Kandidaten) definiert, geteilt durch die durchschnittliche Punktzahl der Personen in der Kategorie mit der höchsten Punktzahl .
Unternehmen, bei denen festgestellt wird, dass sie sich nicht an die Vorschriften halten, drohen Strafen in Höhe von 375 US-Dollar für einen ersten Verstoß, 1.350 US-Dollar für einen zweiten Verstoß und 1.500 US-Dollar für einen dritten und alle weiteren Verstöße. Jeder Tag, an dem ein Unternehmen einen Algorithmus unter Missachtung des Gesetzes einsetzt, stellt einen separaten Verstoß dar – ebenso wie die Nichtbereitstellung ausreichender Offenlegung.
Wichtig ist, dass der Geltungsbereich des lokalen Gesetzes 144, das vom Stadtrat genehmigt wurde und vom New Yorker Ministerium für Verbraucher- und Arbeitnehmerschutz durchgesetzt wird, über die in New York ansässigen Arbeitnehmer hinausgeht. Solange eine Person in der Stadt arbeitet oder sich um eine Stelle bewirbt, hat sie Anspruch auf Schutz nach dem neuen Gesetz.
Viele halten es für überfällig. Khyati Sundaram, der CEO von Applied, einem Anbieter von Personalbeschaffungstechnologien, wies darauf hin, dass insbesondere die KI bei der Personalbeschaffung das Potenzial hat, bestehende Vorurteile zu verstärken – und dabei sowohl die Beschäftigungs- als auch die Lohnunterschiede zu verschärfen.
„Arbeitgeber sollten den Einsatz von KI zur unabhängigen Bewertung oder Einstufung von Kandidaten vermeiden“, sagte Sundaram per E-Mail gegenüber Tech. „Wir sind noch nicht an einem Punkt angelangt, an dem Algorithmen darauf vertraut werden können oder sollten, dass sie diese Entscheidungen selbst treffen, ohne Vorurteile widerzuspiegeln und aufrechtzuerhalten, die bereits in der Arbeitswelt bestehen.“
Man muss nicht lange nach Beweisen dafür suchen, dass in Einstellungsalgorithmen Voreingenommenheit schlummert. Amazon hat 2018 eine Recruiting-Engine eingestellt, nachdem festgestellt wurde, dass dies der Fall war diskriminieren weibliche Kandidaten. Und ein 2019 Eine akademische Studie zeigte eine KI-gestützte Anti-Schwarze-Voreingenommenheit bei der Rekrutierung.
An anderer Stelle wurde festgestellt, dass Algorithmen Jobkandidaten unterschiedliche Bewertungen zuweisen, basierend auf Kriterien wie dem Tragen einer Brille oder eines Kopftuchs; Bewerber dafür zu bestrafen, dass sie einen schwarz klingenden Namen haben, eine Frauenhochschule erwähnen oder ihren Lebenslauf mit bestimmten Dateitypen einreichen; und benachteiligen Menschen mit einer körperlichen Behinderung, die ihre Fähigkeit, mit einer Tastatur zu interagieren, einschränkt.
Die Vorurteile können tiefgreifend sein. Ein Oktober 2022 lernen von der University of Cambridge impliziert, dass die KI-Unternehmen, die behaupten, objektive, meritokratische Bewertungen anzubieten, falsch sind und postulieren, dass Anti-Voreingenommenheitsmaßnahmen zur Beseitigung von Geschlecht und Rasse unwirksam sind, weil der ideale Mitarbeiter historisch von seinem Geschlecht und seiner Rasse beeinflusst wird.
Aber die Risiken bremsen die Akzeptanz nicht. Laut a nutzt bereits fast jedes vierte Unternehmen KI zur Unterstützung seiner Einstellungsprozesse Februar Umfrage 2022 von der Gesellschaft für Personalmanagement. Bei Arbeitgebern mit 5.000 oder mehr Arbeitnehmern ist der Prozentsatz sogar noch höher – 42 %.
Welche Arten von Algorithmen verwenden Arbeitgeber genau? Es variiert. Zu den gebräuchlichsten gehören Textanalysatoren, die Lebensläufe und Anschreiben anhand von Schlüsselwörtern sortieren. Es gibt aber auch Chatbots, die Online-Interviews durchführen, um Bewerber mit bestimmten Merkmalen auszusortieren, und Bewerbungssoftware, die darauf ausgelegt ist, die Problemlösungsfähigkeiten, Fähigkeiten und „kulturellen Eignung“ eines Kandidaten anhand seiner Sprachmuster und Gesichtsausdrücke vorherzusagen.
Die Auswahl an Einstellungs- und Rekrutierungsalgorithmen ist tatsächlich so groß, dass einige Organisationen nicht glauben, dass das lokale Gesetz 144 weit genug geht.
Die NYCLU, der New Yorker Zweig der American Civil Liberties Union, behauptet, dass das Gesetz „bei weitem nicht“ den Schutz von Kandidaten und Arbeitnehmern gewährleistet. Daniel Schwarz, leitender Datenschutz- und Technologiestratege an der NYCLU, stellt in einer Richtlinie fest Memo dass das lokale Gesetz 144, wie es geschrieben steht, so verstanden werden könnte, dass es nur eine Teilmenge der Einstellungsalgorithmen abdeckt – zum Beispiel unter Ausschluss von Tools, die Text aus Video- und Audiointerviews transkribieren. (Angesichts der Tatsache, dass Spracherkennungstools bekanntermaßen voreingenommen sind Problemdas ist offensichtlich problematisch.)
„Die … vorgeschlagenen Regeln [must be strengthened to] sorgen für eine breite Abdeckung von [hiring algorithms]erweitern Sie die Anforderungen an die Voreingenommenheitsprüfung und sorgen Sie für Transparenz und aussagekräftige Hinweise für die betroffenen Personen, um dies sicherzustellen [algorithms] Handeln Sie nicht, um die New Yorker Gesetze gegen Diskriminierung digital zu umgehen“, schrieb Schwarz. „Kandidaten und Arbeitnehmer sollten sich keine Sorgen darüber machen müssen, von einem diskriminierenden Algorithmus überprüft zu werden.“
Parallel dazu unternimmt die Branche erste Schritte zur Selbstregulierung.
Im Dezember 2021 wurde die Data & Trust Alliance ins Leben gerufen, deren Ziel es ist, ein Bewertungs- und Bewertungssystem für KI zu entwickeln, um algorithmische Voreingenommenheit, insbesondere Voreingenommenheit bei der Einstellung, zu erkennen und zu bekämpfen. Die Gruppe zählte einmal CVS Health, Deloitte, General Motors, Humana, IBM, Mastercard, Meta, Nike und Walmart zu ihren Mitgliedern und sammelte Gewinne bedeutsam Presseberichterstattung.
Es überrascht nicht, dass Sundaram diesen Ansatz befürwortet.
„Statt darauf zu hoffen, dass die Aufsichtsbehörden aufholen und die schlimmsten Auswüchse bei der Rekrutierungs-KI eindämmen, liegt es an den Arbeitgebern, beim Einsatz von KI in Einstellungsprozessen wachsam und vorsichtig zu sein“, sagte er. „KI entwickelt sich schneller, als Gesetze erlassen werden können, um ihren Einsatz zu regeln. Gesetze, die schließlich verabschiedet werden – auch die von New York City – dürften aus diesem Grund äußerst kompliziert sein. Dadurch besteht für Unternehmen die Gefahr, dass sie verschiedene rechtliche Feinheiten falsch interpretieren oder übersehen, und im Gegenzug werden marginalisierte Kandidaten weiterhin bei Stellenbesetzungen übersehen.“
Natürlich würden viele von vornherein argumentieren, dass es problematisch sei, wenn Unternehmen ein Zertifizierungssystem für die KI-Produkte entwickeln, die sie verwenden oder entwickeln.
Laut Kritikern ist Local Law 144 in bestimmten Bereichen zwar unvollkommen tut verlangen, dass Audits von unabhängigen Stellen durchgeführt werden, die nicht an der Verwendung, Entwicklung oder Verbreitung des von ihnen getesteten Algorithmus beteiligt waren und keine Beziehung zu dem Unternehmen haben, das den Algorithmus zum Testen einreicht.
Wird sich das lokale Gesetz 144 letztendlich auf Veränderungen auswirken? Es ist zu früh, das zu sagen. Aber der Erfolg – oder Misserfolg – seiner Umsetzung wird sich sicherlich auf Gesetze auswirken, die anderswo erlassen werden. Wie in einem kürzlich erschienenen Artikel für erwähnt Nerdwallet, Washington, DC, erwägt eine Regelung, die Arbeitgeber dafür verantwortlich machen würde, Voreingenommenheit in automatisierten Entscheidungsalgorithmen zu verhindern. In Kalifornien wurden in den letzten Jahren zwei Gesetzesentwürfe eingebracht, die darauf abzielen, KI bei der Einstellung von Mitarbeitern zu regulieren. Und Ende Dezember wurde in New Jersey ein Gesetzentwurf vorgelegt, der den Einsatz von KI bei Einstellungsentscheidungen regeln würde, um Diskriminierung zu minimieren.