Als Lee Humphreys bemerkte, dass Models für ein Einzelhandelsunternehmen – eines, das für seine Vielfalt bekannt ist – auf Standbildern heller als in Videos wirkten, hielt sie das nicht für beabsichtigt.
Sie wandte sich an den CEO, der versprach, sich bei ihr zu melden. Ihr wurde schließlich gesagt, dass die Diskrepanz wegen ihres eigenen Computers gewesen sein muss.
Aber sie wusste, dass das nicht stimmte – sie hatte Kollegen gebeten, auch ihre Computer zu überprüfen. Die Erfahrung löste eine Untersuchung von Humphreys, Professor und Vorsitzender der Abteilung für Kommunikation am College of Agriculture and Life Sciences, und der Doktorandin Chelsea Butkowski über die Rolle der Darstellung der Hautfarbe von Models im Online-Einzelhandel aus.
Ihre Studie, veröffentlicht am 13. März in Visuelle Kommunikation, stellte fest, dass Standbilder von Modellen statistisch gesehen hellere Hauttöne hatten als Videos desselben Produkts und Modells. Sie fanden auch Hinweise auf „Tokenismus“ – das heißt, viele der Websites hatten ein Modell, das erheblich dunkler war als die anderen, als „eine Art Stellvertreter für eine breite Palette von Vielfalt“, sagte Butkowski, der Studie Hauptautor.
Um die Forschung durchzuführen, entwickelten sie eine Methode zur quantitativen Messung von Hauthelligkeit und -dunkelheit, um Inkonsistenzen in verschiedenen Darstellungen desselben Modells über Plattformen hinweg zu erfassen. Um diesen Unterschied genau zu charakterisieren, engagierten sie Utkarsh Mall, einen Doktoranden der Informatik, und entwickelten gemeinsam ein visuelles Analyseverfahren.
„Wir wollten das, was wir sahen, durch eine besser quantifizierbare Methode unterstützen, die über das hinausgeht, was wir sahen“, sagte Butkowski. „Wir haben erwartet, dass es einen Unterschied geben würde und dass er statistisch signifikant sein würde.“
In Produktfotos vom August 2019 haben sie das erste Foto und Video von 10 Angeboten für Damenkleider auf drei Einzelhändler-Websites – Banana Republic, Gap und Old Navy, alle Tochtergesellschaften von Gap Inc.
Ihre Methode umfasste die Analyse von zwei Bereichen der Bilder: das Kinn, das ausgewählt wurde, weil es meistens nach vorne zeigt, und weil Standbilder, die von einem der Einzelhändler verwendet werden, über der Nase abgeschnitten sind; und alle sichtbaren Hautfarben, um Hauttöne im Standbild- und Videomodus zu vergleichen.
Graustufenhistogramme – Charakterisierungen der Pixelverteilung – wurden für alle 30 Bilder erstellt, um die Intensität und Clusterbildung von Pixeln über den Bereich möglicher Farbtöne hinweg zu visualisieren.
Was für Humphreys auch auffiel, war die Vielfalt der Bilder und die Mehrdeutigkeit in Bezug auf die ethnische Zugehörigkeit.
„Wir hielten das im Allgemeinen für eine gute Sache“, sagte sie, „dass wir bis zu einem gewissen Grad eine größere Vielfalt der ethnischen Zugehörigkeit sahen. Aber wenn es um die Hauttöne ging, waren sie immer noch relativ hell.“
Der Unterschied in den Hauttönen war deutlich zu sehen, aber was weniger offensichtlich ist, sagten die Forscher, ist, welche Töne die Realität am genauesten widerspiegeln.
„Wir wissen nicht, ob die Videos dunkler waren, aber eher dem tatsächlichen Aussehen der Models entsprechen, oder ob die helleren Fotos die Models genau wiedergeben“, sagte Humphreys. „Vielleicht sind die Videos einfach nicht gut beleuchtet und daher am Ende dunkler als das, was das Model tatsächlich ist.“
„Wir wissen nicht, was wir nicht wissen“, sagte sie, „aber was wirklich interessant wird, ist, dass die Diskrepanz selbst problematisch wird und ein potenzieller Indikator für Fotomanipulation oder technologische Voreingenommenheit ist.“
Chelsea Butkowski et al, Computing Colorism: Skin Tone in Online Retail Images, Visuelle Kommunikation (2022). DOI: 10.1177/14703572221077444