Google veröffentlicht „verbesserten“ Gemini-KI-Bildgenerator nach „aufgewachter“ Gegenreaktion |

Google veroeffentlicht „verbesserten Gemini KI Bildgenerator nach „aufgewachter Gegenreaktion
Google reagiert auf Kritik und Voreingenommenheitsvorwürfe innerhalb seiner Gemini AI-Bildgenerator. Nach dem Gesicht Rückschlag für ein vermeintliches Versäumnis, weiße Menschen in generierten Bildern genau darzustellen, die Technologieunternehmen hat ein neues Tool zur Bildgenerierung angekündigt, das seiner Aussage nach darauf abzielt, diese Bedenken auszuräumen. Google entschuldigte sich und sagte: „Wir wollten nicht, dass Gemini sich weigert, Bilder einer bestimmten Gruppe zu erstellen. Und wir wollten nicht, dass es ungenaue historische – oder andere – Bilder erstellt.“ Deshalb haben wir die Bilderzeugung von Personen ausgeschaltet und werden daran arbeiten, sie deutlich zu verbessern, bevor wir sie wieder einschalten. Dieser Prozess wird umfangreiche Tests umfassen.“
Jetzt hat ein leitender Google-Manager bestätigt, dass das Unternehmen eine starten wird verbessert Version des Gemini AI-Bildgenerators in den kommenden Wochen. Dies verriet Demis Hassabis, CEO von Google DeepMind, bei einer Podiumsdiskussion auf dem Mobile World Congress in Barcelona. „Wir haben die Funktion offline geschaltet, während wir das Problem beheben“, sagte Hassabis. „Wir hoffen, dass wir das in den nächsten paar Wochen wieder online haben können“, fügte er hinzu.
Das Problem kam ans Licht, als Benutzer ihre Ergebnisse teilten, darunter historische Szenen, in denen ursprünglich ausschließlich weiße Personen zu sehen waren, die mit unterschiedlichen Besetzungen neu interpretiert wurden. Dies führte zu Vorwürfen, Google habe Gemini absichtlich eine Voreingenommenheit gegenüber Weißen einprogrammiert, wobei einige Kritiker das Tool als „wachte auf“ und politisch motiviert.
Laut Google sind zwei Dinge schief gelaufen. Das Unternehmen sagte, dass seine Optimierung, um sicherzustellen, dass Gemini eine Reihe von Personen anzeigt, Fälle nicht berücksichtigt habe, in denen eindeutig keine Reihe angezeigt werden sollte. Zweitens wurde das Modell viel vorsichtiger als von Google beabsichtigt und weigerte sich, bestimmte Eingabeaufforderungen vollständig zu beantworten – und interpretierte einige sehr harmlose Eingabeaufforderungen fälschlicherweise als sensibel. „Diese beiden Dinge führten dazu, dass das Modell in einigen Fällen überkompensierte und in anderen zu konservativ war, was zu Bildern führte, die peinlich und falsch waren“, sagte das Unternehmen in einem Blogbeitrag.

toi-tech