Die Rasse ist tief in der Struktur unserer Alltagskultur verwoben und beeinflusst daher Systeme der künstlichen Intelligenz (KI), die Aufgaben automatisieren, die traditionell von Menschen ausgeführt werden.
Ob bei der Krankheitserkennung, Ressourcenzuteilung, Kreditgenehmigungen oder generativen Bildgebung – Rasse ist ein eingebettetes Element in zahlreichen Technologien. Folglich wurden KI-Systeme häufig für ihre mangelnde Sensibilität und Ungenauigkeit beim Umgang mit Rasse kritisiert und vernachlässigten oft die damit verbundenen komplexen sozialen Nuancen.
Zwei Mitglieder des Pamplin College of Business – die Marketing-Doktorandin Angela Yi und der Assistenzprofessor für Marketing Broderick Turner – untersuchten kürzlich in ihrem Aufsatz „Die komplexe Beziehung zwischen Rasse und KI“.Repräsentationen und Konsequenzen von Rasse in KI-Systemen,“ erschienen in der August-Ausgabe der Zeitschrift Aktuelle Meinung in der Psychologie.
Um dieses Problem anzugehen, mussten Yi und Turner zunächst eine Definition von Rasse finden.
„Es gibt eigentlich keine genetische Grundlage für die Rasse“, sagte Yi. „Es ist eher ein soziales Kategorisierungssystem, das wir heute noch beobachten.“
Das Konzept der Rasse entstand erstmals während der europäischen Aufklärung. Es wurde verwendet, um Menschen anhand oberflächlicher Merkmale zu klassifizieren, die dann dazu verwendet wurden, bestehende soziale Hierarchien zu verstärken. Diese Kategorien, die während der Kolonialzeit und der Sklaverei etabliert wurden, haben sich gehalten und beeinflussen weiterhin moderne KI-Systeme, wobei sie oft veraltete und ungenaue Annahmen aufrechterhalten.
Laut Yi wird Rasse in vielen KI-Systemen oft als feste Kategorie behandelt – etwa als schwarz, weiß oder asiatisch. Diese statische Darstellung erfasst die sozialen und kulturellen Dimensionen der Rasse nicht, was zu Ungenauigkeiten und potenziellen Voreingenommenheiten führt.
„Wenn beispielsweise jemand mit Google Gemini nach einem Bild der Gründerväter der Vereinigten Staaten suchte, gab das System ein Bild aus, auf dem auch nicht-weiße Personen abgebildet waren“, sagte Yi. „Es wird vermutet, dass dies geschah, weil Google versuchte, die vielfältige Darstellung zu stark zu korrigieren.“
Wie die Probleme bei der Verwendung von Google Gemini zeigen, stellt die Integration von Rasse in KI-Systeme erhebliche Herausforderungen dar. Die Tendenz, Rasse als feste Kategorie zu behandeln, übersieht ihre sozialen und historischen Dimensionen, was zu Ungenauigkeiten und potenziellen Voreingenommenheiten führt.
In ihrem Artikel geben Turner und Yi Empfehlungen für die angemessene Berücksichtigung der Rasse in KI-Systemen.
„Die Menschen müssen erkennen, dass Rasse ein dynamisches soziales Konstrukt ist, das sich im Laufe der Zeit ändert“, sagte Yi. „KI-Systeme sollten diese Komplexität widerspiegeln, anstatt sich auf veraltete oder allzu vereinfachte Kategorien zu verlassen.“
Yi schlug den Entwicklern von KI-Systemen außerdem vor, die umfassenderen Auswirkungen der Berücksichtigung von Rasse in KI-Systemen zu bedenken und sich für eine differenziertere Darstellung zu entscheiden.
„Die Berücksichtigung der Rasse in KI-Systemen wird nicht immer eine einfache Antwort sein, aber es wird eine differenzierte Antwort sein müssen, denn Rasse ist eine soziale Frage, und das Verständnis des sozialen und historischen Kontexts der Rasse kann Entwicklern helfen, gerechtere und genauere Modelle zu erstellen“, sagte sie.
Weitere Informationen:
Angela Yi et al., Darstellungen und Konsequenzen von Rasse in KI-Systemen, Aktuelle Meinung in der Psychologie (2024). DOI: 10.1016/j.copsyc.2024.101831