Neue Untersuchungen der Tasmanian School of Business and Economics der University of Tasmania haben ergeben, dass KI-generierte Inhalte schädliche geschlechtsspezifische Vorurteile aufrechterhalten können.
Durch die Analyse von KI-generierten Inhalten darüber, was eine „gute“ und eine „schlechte“ Führungskraft ausmacht, stellten Dr. Toby Newstead und Dr. Bronwyn Eager fest, dass Männer durchweg als stark, mutig und kompetent dargestellt wurden, während Frauen oft als emotional und emotional dargestellt wurden unwirksam. Die Ergebnisse werden in der Zeitschrift veröffentlicht Organisationsdynamik.
„Indem wir untersuchten, wie KI-Tools Antworten auf Fragen rund um gute und schlechte Führung generieren, konnten wir zeigen, dass KI bekannte geschlechtsspezifische Vorurteile widerspiegelt und aufrechterhält“, sagte Dr. Newstead.
„Jede Erwähnung von weiblichen Führungskräften wurde in den ersten Daten zum Thema Führung völlig unterlassen. Das KI-Tool lieferte keinerlei Beispiele für weibliche Führungskräfte, bis es ausdrücklich darum gebeten wurde, Inhalte über Frauen in Führungspositionen zu generieren.“
„Besorgniserregend ist, dass, wenn es tatsächlich Beispiele für weibliche Führungskräfte gab, diese verhältnismäßig weitaus häufiger als männliche Führungskräfte als Beispiele für schlechte Führungskräfte angeführt wurden, was fälschlicherweise suggerierte, dass Frauen eher als Männer schlechte Führungskräfte seien.“
Generative KI-Technologien, die maschinelle Lernprozesse nutzen, um Inhalte zu verstehen und zu erstellen, werden durch die Verarbeitung riesiger Datenmengen aus dem Internet sowie menschlicher Eingaben trainiert, um die Erzeugung schädlicher oder voreingenommener Informationen zu reduzieren.
Dr. Eager sagt, dass die Ergebnisse dieser Forschung die Notwendigkeit einer weiteren Überwachung und Untersuchung von KI-Tools verdeutlichen, wenn sie Teil des täglichen Lebens werden.
„Vorurteile in KI-Modellen haben weitreichende Auswirkungen, die über die bloße Gestaltung der Zukunft der Führung hinausgehen. Mit der raschen Einführung von KI in allen Bereichen müssen wir sicherstellen, dass potenziell schädliche Vorurteile in Bezug auf Geschlecht, Rasse, ethnische Zugehörigkeit, Alter, Behinderung und Sexualität beseitigt werden.“ „nicht erhalten“, sagte sie.
„Unsere Forschung unterstreicht die Notwendigkeit einer kontinuierlichen Überwachung und Bewertung von KI-generierten Inhalten, um sicherzustellen, dass sie keine schädlichen Vorurteile aufrechterhalten. Wir hoffen, dass unsere Forschung zu einer breiteren Diskussion über den verantwortungsvollen Einsatz von KI am Arbeitsplatz beitragen wird.“
Mehr Informationen:
Toby Newstead et al., Wie KI geschlechtsspezifische Vorurteile in Führungspositionen aufrechterhalten oder abmildern kann, Organisationsdynamik (2023). DOI: 10.1016/j.orgdyn.2023.100998