Googles KI macht Fehler in der ersten Demo – World

Googles KI macht Fehler in der ersten Demo – World

Die Firma hofft, dass ihr frischgebackener Chatbot mit ChatGPT konkurrieren kann, das Kritikern zufolge übermäßig politisiert ist

Der Bard-Chatbot von Google hat in einem Demo-Video, das Tage vor einer hochkarätigen Auftaktveranstaltung am Mittwoch in Paris veröffentlicht wurde, einen sachlichen Fehler gemacht. Während sich der KI-Bot noch in der Testphase befindet, wird er als Konkurrent des von Microsoft unterstützten ChatGPT in Rechnung gestellt, einer äußerst beliebten KI mit eigenen Problemen. In einem am Montag von Google veröffentlichten Werbevideo fragt ein Benutzer Bard „was Kann ich meinem 9-Jährigen von neuen Entdeckungen des James Webb Space Telescope (JWST) erzählen?“ Die KI gibt eine Reihe von Antworten zurück, darunter eine, die besagt, dass das Teleskop „die allerersten Bilder eines Planeten außerhalb unseres eigenen Sonnensystems aufgenommen hat“. Wie der Astrophysiker Grant Tremblay auf Twitter betonte, war diese Antwort falsch. Das erste derartige Bild wurde 2004 vom Very Large Telescope (VLT) der Europäischen Südsternwarte aufgenommen, schrieb er und stellte fest, dass KI-Chatbots zwar „gespenstisch beeindruckend“ seien, aber „oft sehr sicher falsch liegen“.

Nicht um ein ~naja, eigentlich~ Idiot zu sein, und ich bin sicher, Bard wird beeindruckend sein, aber fürs Protokoll: JWST hat nicht „das allererste Bild eines Planeten außerhalb unseres Sonnensystems“ gemacht. das erste Bild wurde stattdessen von Chauvin et al. (2004) mit dem VLT/NACO mit adaptiver Optik. https://t.co/bSBb5TOeUWpic.twitter.com/KnrZ1SSz7h— Grant Tremblay (@astrogrant) 7. Februar 2023

Der Fehler wurde bemerkt, unmittelbar bevor Google Bard am Mittwochmorgen bei einer Veranstaltung in Paris vorstellte, wobei der Wert des Unternehmens um 8 % einbrach, als sich die Nachricht über den Fehler verbreitete. Künstliche Intelligenzen wie Bard liefern nicht zu jeder Frage genaue Ergebnisse. Während sie über Billionen von Seiten mit von Menschen geschaffenen Wörtern und Zahlen brüten, sagen sie die wahrscheinlichsten Antworten auf eine Frage oder Aufforderung voraus. Microsoft stellte dies fest, als es am Dienstag ankündigte, dass seine Suchmaschine Bing mit ChatGPT – entwickelt auf der von Microsoft finanzierten OpenAI-Plattform – ausgestattet sein würde . Die Entwicklung der Konversations-KI wurde auch von Vorwürfen politischer Voreingenommenheit unter Programmierern geplagt. Tech-Fans haben kürzlich festgestellt, dass ChatGPT sich weigern würde, etwas Positives darüber zu sagen fossile Brennstoffeoder sogar der ehemalige US-Präsident Donald Trump, während es die Tugenden eines rühmen würde fleischfreie Ernährung Und Gedichte schreiben zu Ehren von Trumps demokratischem Nachfolger Joe Biden. Als ihm ein hypothetisches Szenario präsentiert wurde, in dem er aufgefordert wurde, eine rassistische Beleidigung zu äußern, um eine Atombombe zu entschärfen, wurde die KI erklärt dass es Millionen von Menschen zur nuklearen Vernichtung verurteilen würde, bevor es jemals „rassistische Sprache“ verwendet Prinzipien. Diese Regeln besagen, dass die KI-Produkte von Google „ungerechte Auswirkungen auf Menschen vermeiden werden, insbesondere solche im Zusammenhang mit … Rasse, ethnischer Zugehörigkeit, Geschlecht, Nationalität, Einkommen, sexueller Orientierung, Fähigkeiten und politischer oder religiöser Überzeugung“.

:



rrt-allgemeines