Bei der Generierung von Bildern indischer Männer ist Meta AI von Turbanen besessen

Bei der Generierung von Bildern indischer Maenner ist Meta AI

Voreingenommenheit bei KI-Bildgeneratoren ist ein gut untersuchtes und gut berichtetes Phänomen, doch Verbrauchertools weisen weiterhin eklatante kulturelle Vorurteile auf. Der neueste Übeltäter in diesem Bereich ist der KI-Chatbot von Meta, der aus irgendeinem Grund wirklich jedem Bild eines indischen Mannes Turbane hinzufügen möchte.

Das Unternehmen führte Meta AI Anfang dieses Monats in mehr als einem Dutzend Ländern über WhatsApp, Instagram, Facebook und Messenger ein. Allerdings hat das Unternehmen Meta AI für ausgewählte Benutzer in Indien, einem der größten Märkte weltweit, eingeführt.

Tech untersucht im Rahmen unseres KI-Testprozesses verschiedene kulturspezifische Abfragen. Dabei haben wir beispielsweise herausgefunden, dass Meta wahlbezogene Abfragen in Indien aufgrund der laufenden Parlamentswahlen im Land blockiert. Aber Imagine, der neue Bildgenerator von Meta AI, zeigte neben anderen Vorurteilen auch eine besondere Veranlagung, indische Männer mit Turban zu generieren.

Als wir verschiedene Eingabeaufforderungen getestet und mehr als 50 Bilder generiert haben, um verschiedene Szenarien zu testen, und sie alle hier sind, bis auf ein paar (wie „ein deutscher Fahrer“), haben wir dies getan, um zu sehen, wie das System verschiedene Kulturen darstellt. Der Generation liegt keine wissenschaftliche Methode zugrunde, und wir haben Ungenauigkeiten bei der Darstellung von Objekten oder Szenen außerhalb der kulturellen Linse nicht berücksichtigt.

In Indien gibt es viele Männer, die einen Turban tragen, aber der Anteil ist bei weitem nicht so hoch, wie das Tool von Meta AI vermuten lässt. In Indiens Hauptstadt Delhi würde man höchstens jeden 15. Mann sehen, der einen Turban trägt. In Bildern, die Metas KI generiert, zeigen jedoch etwa drei bis vier von fünf Bildern, dass indische Männer einen Turban tragen.

Wir begannen mit der Aufforderung „Ein Indianer geht auf der Straße“ und alle Bilder zeigten Männer mit Turbanen.

Als Nächstes haben wir versucht, Bilder mit Aufforderungen wie „Ein Inder“, „Ein Inder spielt Schach“, „Ein Inder kocht“ und „Ein Inder schwimmt“ zu generieren. Meta AI hat nur ein Bild eines Mannes ohne Turban generiert.

Selbst mit den nicht geschlechtsspezifischen Eingabeaufforderungen zeigte Meta AI keine große Vielfalt in Bezug auf Geschlecht und kulturelle Unterschiede. Wir haben Eingabeaufforderungen mit verschiedenen Berufen und Situationen ausprobiert, darunter einem Architekten, einem Politiker, einem Badmintonspieler, einem Bogenschützen, einem Schriftsteller, einem Maler, einem Arzt, einem Lehrer, einem Ballonverkäufer und einem Bildhauer.

Wie Sie sehen können, trugen trotz der unterschiedlichen Umgebungen und Kleidung alle Männer Turbane. Auch wenn Turbane in jedem Beruf und in jeder Region üblich sind, ist es für Meta AI seltsam, sie für so allgegenwärtig zu halten.

Wir haben Bilder eines indischen Fotografen erstellt, und die meisten von ihnen verwenden eine veraltete Kamera, außer auf einem Bild, auf dem ein Affe auch irgendwie eine DSLR hat.

Wir haben auch Bilder eines indischen Fahrers erstellt. Und bis wir das Wort „dapper“ hinzufügten, zeigte der Bildgenerierungsalgorithmus Hinweise auf Klassenvoreingenommenheit.

Wir haben auch versucht, zwei Bilder mit ähnlichen Eingabeaufforderungen zu erstellen. Hier einige Beispiele: Ein indischer Programmierer in einem Büro.

Ein indischer Mann auf einem Feld, der einen Traktor bedient.

Zwei indische Männer sitzen nebeneinander:

Zusätzlich haben wir versucht, eine Collage aus Bildern mit Eingabeaufforderungen zu erstellen, beispielsweise eines indischen Mannes mit unterschiedlichen Frisuren. Dies schien die Vielfalt zu erzeugen, die wir erwartet hatten.

Imagine von Meta AI hat auch die verwirrende Angewohnheit, für ähnliche Aufforderungen eine Art Bild zu generieren. So entstand zum Beispiel ständig das Bild eines altmodischen indischen Hauses mit leuchtenden Farben, Holzsäulen und stilvollen Dächern. Eine schnelle Google-Bildersuche zeigt Ihnen, dass dies bei den meisten indischen Häusern nicht der Fall ist.

Eine weitere Eingabeaufforderung, die wir ausprobiert haben, war „Indian Content Creator“, und sie erzeugte wiederholt das Bild einer weiblichen Autorin. In der Galerie unten haben wir Bilder mit dem Inhaltsersteller an einem Strand, einem Hügel, einem Berg, einem Zoo, einem Restaurant und einem Schuhgeschäft eingefügt.

Wie bei jedem Bildgenerator sind die hier auftretenden Verzerrungen wahrscheinlich auf unzureichende Trainingsdaten und einen anschließend unzureichenden Testprozess zurückzuführen. Auch wenn Sie nicht alle möglichen Ergebnisse testen können, sollten gängige Stereotypen leicht zu erkennen sein. Meta AI wählt scheinbar eine Art der Darstellung für eine bestimmte Eingabeaufforderung aus, was zumindest für Indien auf einen Mangel an vielfältiger Darstellung im Datensatz hinweist.

Auf Fragen, die Tech an Meta zu Trainingsdaten und Verzerrungen schickte, antwortete das Unternehmen, dass es daran arbeite, seine generative KI-Technologie zu verbessern, machte jedoch keine detaillierten Angaben zum Prozess.

„Dies ist eine neue Technologie und sie liefert möglicherweise nicht immer die gewünschte Reaktion, was für alle generativen KI-Systeme gleich ist. Seit unserer Einführung haben wir ständig Updates und Verbesserungen an unseren Modellen veröffentlicht und arbeiten weiterhin daran, sie zu verbessern“, sagte ein Sprecher in einer Erklärung.

Der größte Vorteil von Meta AI besteht darin, dass es kostenlos und auf mehreren Oberflächen leicht verfügbar ist. Millionen von Menschen aus verschiedenen Kulturen würden es also auf unterschiedliche Weise nutzen. Während Unternehmen wie Meta ständig daran arbeiten, Bilderzeugungsmodelle im Hinblick auf die Genauigkeit der Generierung von Objekten und Menschen zu verbessern, ist es auch wichtig, dass sie an diesen Tools arbeiten, um zu verhindern, dass sie Stereotypen bedienen.

Meta möchte wahrscheinlich, dass Ersteller und Benutzer dieses Tool verwenden, um Inhalte auf seinen Plattformen zu veröffentlichen. Wenn jedoch generative Vorurteile fortbestehen, tragen sie auch dazu bei, die Vorurteile bei Nutzern und Zuschauern zu bestätigen oder zu verstärken. Indien ist ein vielfältiges Land mit vielen Überschneidungen von Kultur, Kaste, Religion, Region und Sprachen. Unternehmen, die an KI-Tools arbeiten, müssen dies tun besser darin, verschiedene Menschen darzustellen.

Wenn Sie festgestellt haben, dass KI-Modelle ungewöhnliche oder voreingenommene Ergebnisse erzeugen, können Sie mich unter [email protected] per E-Mail und über diesen Link auf Signal kontaktieren.

tch-1-tech