„Auf jeden Fall durcheinander“: Google-Mitbegründer Sergey Brin über die Bildgenerierung des Gemini AI-Chatbots

„Auf jeden Fall durcheinander Google Mitbegruender Sergey Brin ueber die Bildgenerierung
Bald darauf Google Gemini wurde dafür kritisiert, dass es „historisch ungenaue“ Bilder erzeugte, Google und Sundar Pichai, CEO von Alphabet, nannte die Zwillinge Bilderzeugung „völlig inakzeptabel“. Jetzt hat der Mitbegründer des Unternehmens seine Meinung geäußert und gesagt, dass KI-Chatbot „definitiv durcheinander“.
Als er kürzlich im AGI House in San Francisco sprach, sagte Brin, das Unternehmen habe „definitiv einen Fehler bei der Bilderzeugung gemacht“.
„Ich hatte nicht wirklich damit gerechnet, heute darüber zu sprechen. Wir haben definitiv einen Fehler bei der Image-Generierung gemacht, und ich denke, das lag vor allem daran, dass wir nicht gründlich getestet haben“, sagte er beim „Gemini 1.5 Hackathon“ während seiner Ansprache Bedenken hinsichtlich der Vorurteile der KI.
Brin und Mitbegründer Larry Seite sind Berichten zufolge seit der Einführung von ChatGPT durch OpenAI im Jahr 2022 im Unternehmen aktiver.

Google Gemini „Probleme“
Google hat die Bildgenerierungsfunktion von Gemini letzten Monat pausiert, nachdem sich Social-Media-Nutzer darüber beschwert hatten, dass dadurch „falsche“ Bilder erstellt würden. Der Chatbot umfasste farbige Menschen und stellte Nazis und die Gründerväter der USA dar.
Darüber hinaus wurde Google Gemini auch kritisiert, weil es ungenaue schriftliche Antworten zurückgab. Kürzlich wurde berichtet, dass Gemini „voreingenommene“ Antworten auf Fragen im Zusammenhang mit Premierminister Narendra Modi gab.
Es wurde berichtet, dass der KI-Chatbot keine klare Antwort lieferte, als eine ähnliche Frage zum ehemaligen US-Präsidenten Donald Trump und zum ukrainischen Präsidenten Wolodymyr Selenskyj gestellt wurde.
IT-Minister Rajeev Chandrasekhar bezeichnete „die Episode von Google Gemini“ als „sehr peinlich“ und sagte, dass die Regierung dies als Verstoß gegen IT-Gesetze betrachte.
Google antwortete mit der Aussage, dass es schnell an der Lösung des Problems gearbeitet habe. Das Unternehmen stellte fest, dass sein KI-Chatbot „möglicherweise nicht immer zuverlässig“ ist, wenn es darum geht, auf bestimmte Aufforderungen im Zusammenhang mit aktuellen Ereignissen und politischen Themen zu reagieren.

toi-tech