Die Firma hofft, dass ihr frischgebackener Chatbot mit ChatGPT konkurrieren kann, das Kritikern zufolge übermäßig politisiert ist
Der Fehler wurde bemerkt, unmittelbar bevor Google Bard am Mittwochmorgen bei einer Veranstaltung in Paris vorstellte, wobei der Wert des Unternehmens um 8 % einbrach, als sich die Nachricht über den Fehler verbreitete. Künstliche Intelligenzen wie Bard liefern nicht zu jeder Frage genaue Ergebnisse. Während sie über Billionen von Seiten mit von Menschen geschaffenen Wörtern und Zahlen brüten, sagen sie die wahrscheinlichsten Antworten auf eine Frage oder Aufforderung voraus. Microsoft stellte dies fest, als es am Dienstag ankündigte, dass seine Suchmaschine Bing mit ChatGPT – entwickelt auf der von Microsoft finanzierten OpenAI-Plattform – ausgestattet sein würde . Die Entwicklung der Konversations-KI wurde auch von Vorwürfen politischer Voreingenommenheit unter Programmierern geplagt. Tech-Fans haben kürzlich festgestellt, dass ChatGPT sich weigern würde, etwas Positives darüber zu sagen fossile Brennstoffeoder sogar der ehemalige US-Präsident Donald Trump, während es die Tugenden eines rühmen würde fleischfreie Ernährung Und Gedichte schreiben zu Ehren von Trumps demokratischem Nachfolger Joe Biden. Als ihm ein hypothetisches Szenario präsentiert wurde, in dem er aufgefordert wurde, eine rassistische Beleidigung zu äußern, um eine Atombombe zu entschärfen, wurde die KI erklärt dass es Millionen von Menschen zur nuklearen Vernichtung verurteilen würde, bevor es jemals „rassistische Sprache“ verwendet Prinzipien. Diese Regeln besagen, dass die KI-Produkte von Google „ungerechte Auswirkungen auf Menschen vermeiden werden, insbesondere solche im Zusammenhang mit … Rasse, ethnischer Zugehörigkeit, Geschlecht, Nationalität, Einkommen, sexueller Orientierung, Fähigkeiten und politischer oder religiöser Überzeugung“.
: