Nach langem Überlegen, Google eine neue gestartet Bilderzeugung Fähigkeit in seinen Zwillingen KI-Chatbot (früher bekannt als Bard), mit dem Benutzer KI-Fotos per Texteingabe erstellen können. Allerdings geriet das Feature in die Kritik, nachdem es „historisch ungenaue“ Bilder von US-Gründervätern und deutschen Soldaten aus der Nazizeit erzeugte, indem es „weiße Menschen“ ausschloss. Google räumte den Fehler schnell ein und sagte, dass der Chatbot „das Ziel verfehlt“ habe und die Bildgenerierung von Personen in Gemini vorübergehend angehalten habe. Das Unternehmen hat nun detailliert beschrieben, was bei Gemini schief gelaufen ist Erstellung von KI-Bildern.
Gemäß Prabhakar RaghavanSenior Vice President bei Google, sagte, dass bei Geminis Funktion zur Erstellung menschlicher Bilder zwei Dinge schief gelaufen seien.
„Erstens unser Tuning, um das sicherzustellen Zwillinge zeigte, dass eine Reihe von Personen Fälle versäumt hat, Fälle zu erklären, die eindeutig keine Spanne aufweisen sollten. Und zweitens wurde das Modell im Laufe der Zeit viel vorsichtiger als wir beabsichtigt hatten und weigerte sich, auf bestimmte Eingabeaufforderungen vollständig zu antworten – und interpretierte einige sehr harmlose Eingabeaufforderungen fälschlicherweise als sensibel“, erklärte er.
Die Bildgenerierungsfunktion der Gemini-Konversations-App basiert auf einem KI-Modell namens Imagen 2. Das Unternehmen sagte, dass Benutzer „auf jeden Fall“ eine genaue Antwort erhalten sollten, wenn sie Gemini nach Bildern von Menschen in bestimmten kulturellen oder historischen Kontexten fragen.
Er sagte, die beiden Probleme führten dazu, dass das Modell in einigen Fällen überkompensierte und in anderen zu konservativ sei, was zu peinlichen und falschen Bildern führe.
Google arbeitet an einer verbesserten Version
Google gab an, an einer verbesserten Version zu arbeiten, die später veröffentlicht wird. Es wurde bekräftigt, dass Gemini möglicherweise nicht immer zuverlässig sei, „insbesondere wenn es darum geht, Bilder oder Texte zu aktuellen Ereignissen, sich entwickelnden Nachrichten oder aktuellen Themen zu erstellen“.
„Es wird Fehler machen. Wie wir von Anfang an gesagt haben, sind Halluzinationen eine bekannte Herausforderung bei allen LLMs – es gibt Fälle, in denen die KI einfach etwas falsch macht. Das ist etwas, an dessen Verbesserung wir ständig arbeiten“, bemerkte Raghavan.
Er wies darauf hin, dass Gemini gelegentlich peinliche, ungenaue oder anstößige Ergebnisse liefert und Google weiterhin Maßnahmen ergreifen wird, wenn ein Problem festgestellt wird.
Gemäß Prabhakar RaghavanSenior Vice President bei Google, sagte, dass bei Geminis Funktion zur Erstellung menschlicher Bilder zwei Dinge schief gelaufen seien.
„Erstens unser Tuning, um das sicherzustellen Zwillinge zeigte, dass eine Reihe von Personen Fälle versäumt hat, Fälle zu erklären, die eindeutig keine Spanne aufweisen sollten. Und zweitens wurde das Modell im Laufe der Zeit viel vorsichtiger als wir beabsichtigt hatten und weigerte sich, auf bestimmte Eingabeaufforderungen vollständig zu antworten – und interpretierte einige sehr harmlose Eingabeaufforderungen fälschlicherweise als sensibel“, erklärte er.
Die Bildgenerierungsfunktion der Gemini-Konversations-App basiert auf einem KI-Modell namens Imagen 2. Das Unternehmen sagte, dass Benutzer „auf jeden Fall“ eine genaue Antwort erhalten sollten, wenn sie Gemini nach Bildern von Menschen in bestimmten kulturellen oder historischen Kontexten fragen.
Er sagte, die beiden Probleme führten dazu, dass das Modell in einigen Fällen überkompensierte und in anderen zu konservativ sei, was zu peinlichen und falschen Bildern führe.
Google arbeitet an einer verbesserten Version
Google gab an, an einer verbesserten Version zu arbeiten, die später veröffentlicht wird. Es wurde bekräftigt, dass Gemini möglicherweise nicht immer zuverlässig sei, „insbesondere wenn es darum geht, Bilder oder Texte zu aktuellen Ereignissen, sich entwickelnden Nachrichten oder aktuellen Themen zu erstellen“.
„Es wird Fehler machen. Wie wir von Anfang an gesagt haben, sind Halluzinationen eine bekannte Herausforderung bei allen LLMs – es gibt Fälle, in denen die KI einfach etwas falsch macht. Das ist etwas, an dessen Verbesserung wir ständig arbeiten“, bemerkte Raghavan.
Er wies darauf hin, dass Gemini gelegentlich peinliche, ungenaue oder anstößige Ergebnisse liefert und Google weiterhin Maßnahmen ergreifen wird, wenn ein Problem festgestellt wird.