Neue Studie zeigt, dass geschlechtsspezifische Vorurteile in Suchalgorithmen Auswirkungen auf Benutzer haben

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Geschlechtsneutrale Internetrecherchen liefern Ergebnisse, die dennoch von Männern dominiert werden, findet eine neue Studie eines Teams von Psychologieforschern. Darüber hinaus wirken sich diese Suchergebnisse auf die Nutzer aus, indem sie geschlechtsspezifische Vorurteile fördern und möglicherweise Einstellungsentscheidungen beeinflussen.

Die Arbeit, die in der Zeitschrift erscheint Proceedings of the National Academy of Sciences (PNAS), gehört zu den neuesten, die aufdecken, wie künstliche Intelligenz (KI) unsere Wahrnehmungen und Handlungen verändern kann.

„Es gibt zunehmend Bedenken, dass Algorithmen, die von modernen KI-Systemen verwendet werden, diskriminierende Ergebnisse produzieren, vermutlich weil sie auf Daten trainiert wurden, in die gesellschaftliche Vorurteile eingebettet sind“, sagt Madalina Vlasceanu, Postdoktorandin am Department of Psychology der New York University und Hauptautorin der Arbeit . „Infolgedessen kann ihre Verwendung durch den Menschen eher zur Ausbreitung als zur Verringerung bestehender Ungleichheiten führen.“

„Diese Ergebnisse erfordern ein Modell der ethischen KI, das menschliche Psychologie mit computergestützten und soziologischen Ansätzen kombiniert, um die Entstehung, den Betrieb und die Minderung algorithmischer Verzerrungen zu beleuchten“, fügt der Autor David Amodio, Professor am Department of Psychology der NYU und der Universität Amsterdam, hinzu .

Technologieexperten haben Bedenken geäußert, dass Algorithmen, die von modernen KI-Systemen verwendet werden, diskriminierende Ergebnisse produzieren, vermutlich weil sie auf Daten trainiert wurden, in denen gesellschaftliche Vorurteile verwurzelt sind.

„Bestimmte Vorstellungen von Geschlecht aus den 1950er Jahren sind tatsächlich immer noch in unseren Datenbanksystemen eingebettet“, sagte Meredith Broussard, Autorin von „Artificial Unintelligence: How Computers Misunderstand the World“ und Professorin am Arthur L. Carter Journalism Institute der NYU, Anfang des Jahres gegenüber Markup.

Der Einsatz von KI durch menschliche Entscheidungsträger kann eher zur Ausbreitung als zur Verringerung bestehender Unterschiede führen, sagen Vlasceanu und Amodio.

Um dieser Möglichkeit entgegenzuwirken, führten sie Studien durch, die festzustellen versuchten, ob der Grad der Ungleichheit innerhalb einer Gesellschaft mit Verzerrungsmustern im algorithmischen Output zusammenhängt und, falls ja, ob die Exposition gegenüber solchen Outputs menschliche Entscheidungsträger beeinflussen könnte, in Übereinstimmung mit diesen Verzerrungen zu handeln .

Zunächst stützten sie sich auf den Global Gender Gap Index (GGGI), der Rankings der Geschlechterungleichheit für mehr als 150 Länder enthält. Der GGGI repräsentiert das Ausmaß der geschlechtsspezifischen Ungleichheit in Bezug auf wirtschaftliche Teilhabe und Chancen, Bildungsabschluss, Gesundheit und Überleben sowie politisches Empowerment in 153 Nationen und liefert damit gesellschaftliche Werte für die geschlechtsspezifische Ungleichheit für jedes Land.

Als Nächstes untersuchten sie, um mögliche geschlechtsspezifische Verzerrungen in Suchergebnissen oder algorithmischen Ergebnissen zu bewerten, ob Wörter, die sich mit gleicher Wahrscheinlichkeit auf einen Mann oder eine Frau beziehen sollten, wie „Person“, „Student“ oder „Mensch“, häufiger vorkommen vermutlich ein Mann. Hier führten sie in 37 Ländern eine Google-Bildsuche nach „Person“ innerhalb einer Nation (in ihrer vorherrschenden Landessprache) durch. Die Ergebnisse zeigten, dass der Anteil männlicher Bilder, die aus diesen Suchen hervorgingen, in Ländern mit größerer geschlechtsspezifischer Ungleichheit höher war, was zeigt, dass algorithmische geschlechtsspezifische Vorurteile mit gesellschaftlicher geschlechtsspezifischer Ungleichheit einhergehen.

Die Forscher wiederholten die Studie drei Monate später mit einer Stichprobe von 52 Ländern, darunter 31 aus der ersten Studie. Die Ergebnisse stimmten mit denen der ursprünglichen Studie überein und bestätigten, dass sich geschlechtsspezifische Unterschiede auf gesellschaftlicher Ebene in algorithmischen Ergebnissen (z. B. Internetsuchen) widerspiegeln.

Vlasceanu und Amodio versuchten dann festzustellen, ob die Exposition gegenüber solchen algorithmischen Ergebnissen – Suchmaschinenergebnissen – die Wahrnehmungen und Entscheidungen der Menschen in einer Weise beeinflussen kann, die mit bereits bestehenden gesellschaftlichen Ungleichheiten vereinbar ist.

Dazu führten sie eine Reihe von Experimenten mit insgesamt fast 400 weiblichen und männlichen US-Teilnehmern durch.

In diesen Experimenten wurde den Teilnehmern gesagt, dass sie die Google-Bildsuchergebnisse von vier Berufen betrachteten, mit denen sie wahrscheinlich nicht vertraut waren: Krämer, Tuchmacher, Peruker und Lapidär. Die geschlechtsspezifische Zusammensetzung des Bildsatzes jedes Berufs wurde ausgewählt, um die Ergebnisse der Google-Bildersuche für das Schlüsselwort „Person“ für Nationen mit hohen globalen Werten für geschlechtsspezifische Ungleichheit (ungefähr 90 % Männer zu 10 % Frauen in Ungarn oder der Türkei) sowie für solche mit zu repräsentieren niedrige globale geschlechtsspezifische Ungleichheitswerte (ungefähr 50 % Männer zu 50 % Frauen in Island oder Finnland) aus der oben genannten 52-Nationen-Studie. Dies ermöglichte es den Forschern, die Ergebnisse von Internetsuchen in verschiedenen Ländern nachzuahmen.

Vor dem Betrachten der Suchergebnisse gaben die Teilnehmer prototypische Urteile zu jedem Beruf ab (z. B. „Wer ist eher ein Peruker, ein Mann oder eine Frau?“), die als Basisbewertung ihrer Wahrnehmungen dienten. Hier schätzten die Teilnehmer, sowohl weibliche als auch männliche, Angehörige dieser Berufe eher als Männer als als Frauen ein.

Als jedoch die gleichen Fragen nach dem Betrachten der Bildersuchergebnisse gestellt wurden, kehrten die Teilnehmer in den Bedingungen mit geringer Ungleichheit ihre männlich voreingenommenen Prototypen relativ zur Ausgangsbewertung um. Im Gegensatz dazu behielten diejenigen mit hoher Ungleichheit ihre männlich voreingenommene Wahrnehmung bei und verstärkten dadurch ihre Wahrnehmung dieser Prototypen.

Die Forscher bewerteten dann, wie Vorurteile, die durch Internetsuchen ausgelöst werden, potenziell Einstellungsentscheidungen beeinflussen könnten. Dazu baten sie die Teilnehmer, die Wahrscheinlichkeit zu beurteilen, dass ein Mann oder eine Frau in jedem Beruf eingestellt würde („Welche Art von Person wird am ehesten als Peruker eingestellt?“), und ob ihnen Bilder von zwei Jobkandidaten präsentiert wurden (eine Frau und ein Mann) für eine Position in diesem Beruf, um ihre eigene Einstellungsentscheidung zu treffen (z. B. „Wählen Sie einen dieser Bewerber für eine Stelle als Peruker aus.“).

In Übereinstimmung mit den anderen experimentellen Ergebnissen führte die Exposition gegenüber Bildern in der Bedingung mit geringer Ungleichheit zu egalitäreren Urteilen über männliche und weibliche Einstellungstendenzen innerhalb eines Berufs und zu einer höheren Wahrscheinlichkeit, eine weibliche Bewerberin auszuwählen, verglichen mit der Exposition gegenüber Bildersets in der Bedingung mit hoher Ungleichheit. Ungleichheitszustand.

„Diese Ergebnisse deuten auf einen Kreislauf der Verbreitung von Vorurteilen zwischen Gesellschaft, KI und Benutzern hin“, schreiben Vlasceanu und Amodio und fügen hinzu, dass „die Ergebnisse zeigen, dass gesellschaftliche Ungleichheiten in Internet-Suchalgorithmen offensichtlich sind und dass die Exposition gegenüber diesem algorithmischen Ergebnis Menschen führen kann Benutzer dazu bringen, auf eine Weise zu denken und möglicherweise zu handeln, die die gesellschaftliche Ungleichheit verstärkt.“

Mehr Informationen:
Madalina Vlasceanu et al, Propagation of social gender inequality by internet search algorithms, Proceedings of the National Academy of Sciences (2022). DOI: 10.1073/pnas.2204529119

Zur Verfügung gestellt von der New York University

ph-tech