Google Gemini-Probleme: Meta arbeitet am nächsten KI-Modell |

Google Gemini Probleme Meta arbeitet am naechsten KI Modell
Google Gemini geriet kürzlich aus zwei Gründen in Schwierigkeiten: Erstens lieferte der KI-Chatbot voreingenommene Antworten über Premierminister Narendra Modi und zweitens generierte er historisch falsche Bilder. Dies führte zu massiver Kritik im Internet und veranlasste den CEO des Unternehmens, Sundar Pichai, ein Treffen einzuberufen, in dem er den Mitarbeitern mitteilte, dass die Ergebnisse von Gemini inakzeptabel seien Facebook-Eltern-Metaum in Aktion zu treten.
Laut einem Bericht von The Information mit Lama 3Meta arbeitet daran, ein Problem zu lösen, das es in der hatte Lama 2 KI-Modell.
„Als Teil seiner Arbeit an der kommenden Version seines großen Sprachmodells, Llama 3, versucht Meta, ein in Llama 2 wahrgenommenes Problem zu überwinden: Seine Antworten auf alles, was strittig ist, sind nicht hilfreich“, heißt es in dem Bericht.
Die getroffenen Sicherheitsvorkehrungen für Lama 2 sind „sicher“
In dem Bericht wurde auch hervorgehoben, dass die Sicherheitsvorkehrungen, die Meta zum KI-Modell Llama 2 hinzugefügt hat – das im Juli letzten Jahres veröffentlicht wurde und den KI-Assistenten in seinen Apps unterstützt – das LLM daran hindern, eine breite Palette von Fragen zu beantworten, die als kontrovers gelten.
„Diese Leitplanken haben dazu geführt, dass Llama 2 in den Augen der Führungsspitze von Meta und einiger Forscher, die am Modell selbst gearbeitet haben, zu ‚sicher‘ erscheint“, heißt es in dem Bericht unter Berufung auf Mitarbeiter des Unternehmens.
Googles KI-„Probleme“
Der KI-Chatbot Gemini von Google gab eine „voreingenommene“ Antwort auf eine Frage zu Modi zurück. Ein Nutzer auf Twitter behauptete, der KI-Chatbot habe keine klare Antwort gegeben, als eine ähnliche Frage über den ehemaligen US-Präsidenten Donald Trump und den ukrainischen Präsidenten Wolodymyr Selenskyj gestellt wurde.
Google wurde schnell aktiv und sagte, dass der Chatbot des Unternehmens „möglicherweise nicht immer zuverlässig“ sei, wenn es darum gehe, auf bestimmte Aufforderungen zu aktuellen Ereignissen und politischen Themen zu reagieren. Es fügte hinzu, dass die Teams bei Google daran arbeiten, die Modelle zu verfeinern.
In ähnlicher Weise erzeugten die vom Gemini-Chatbot erstellten Bilder ungenaue historische Bilder der US-Gründerväter und der deutschen Soldaten aus der Nazizeit. Auf den Bildern war keine „weiße“ Person zu sehen. Google gab bekannt, dass es die Fähigkeit des Chatbots, Bilder von Menschen zu generieren, pausiert hat und ein weiter optimiertes Modell veröffentlichen wird.

toi-tech