Google steht in der Kritik, weil Gemini AI „aufgewacht“ ist. Hier ist, was das Unternehmen zu sagen hat |

Google steht in der Kritik weil Gemini AI „aufgewacht ist
Google hat sich nach ihrer Neuverhandlung entschuldigt KI Modell, Zwillingeerzeugt rassistisch voreingenommen Bildergebnisse als Antwort auf Benutzeranfragen. Das Unternehmen räumte das Problem in einer Erklärung ein und führte es auf „Einschränkungen der Trainingsdaten, die zur Entwicklung von Gemini verwendet wurden“ zurück.
„Wir sind uns bewusst, dass Gemini bei einigen Darstellungen der historischen Bilderzeugung Ungenauigkeiten aufweist“, sagte Google in einem Beitrag auf der Social-Media-Plattform Bereich von Menschen. Und das ist im Allgemeinen eine gute Sache, denn Menschen auf der ganzen Welt nutzen es. Aber hier fehlt das Ziel.“
Die Kontroverse hat vor allem die Aufmerksamkeit konservativer Stimmen auf sich gezogen, die einen Technologieriesen kritisieren, der als politisch linksgerichtet gilt, wenn auch nicht ausschließlich. Kürzlich hat ein ehemaliger Mitarbeiter von Google in den sozialen Medien über die Herausforderungen gepostet, die es mit sich bringt, vielfältiger zu werden Bildergebnisse mithilfe des KI-Tools des Unternehmens. In den sozialen Medien wiesen Nutzer auf Schwierigkeiten bei der Generierung von Bildern weißer Personen hin und verwiesen auf Suchanfragen wie „Bild einer schwedischen Frau erstellen“ oder „Bild einer Amerikanerin erstellen“, die überwiegend KI-generierte farbige Menschen lieferten, heißt es in einem Bericht von The Verge.
Die Kritik fand in rechten Kreisen Anklang, insbesondere in Bezug auf Anfragen nach Bildern historischer Persönlichkeiten wie den Gründervätern, die angeblich überwiegend nicht-weiße KI-generierte Ergebnisse lieferten. Einige dieser Stimmen stellten die Ergebnisse als Hinweis auf einen bewussten Versuch des Technologieunternehmens dar, die Repräsentation weißer Personen zu schwächen, wobei mindestens einer eine verschlüsselte antisemitische Sprache verwendete, um die Schuld zuzuweisen.
Es bestehen weiterhin Bedenken hinsichtlich des Potenzials voreingenommener KI, bestehende Stereotypen zu verstärken und zu systemischer Diskriminierung beizutragen. Früher in diesem Jahr, OpenAI wurde auch vorgeworfen, dass sein KI-Tool falsche Stereotypen fördert. Das Dall-E-Bildgeneratortool von OpenAI wurde gebeten, Bilder eines CEO zu erstellen, und die meisten Ergebnisse waren Bilder von weißen Männern.

toi-tech