Google listete in einem Blogbeitrag, in dem es den offenen Zugang für eingeschränkte Benutzer in Großbritannien und den USA ankündigte, auch bekannte Einschränkungen von LLM-basierten Schnittstellen (Large Language Model) wie Bard und ChatGPT auf.
Google hat sich auf fünf Bereiche konzentriert, in denen es weiterhin an Genauigkeit, Voreingenommenheit, Persona, falsch positiven und falsch negativen Ergebnissen sowie Anfälligkeit arbeitet. Hier sind einige der Einschränkungen von Bard laut Google.
Google Barde muss nicht immer „richtig“ sein
Laut Google ist Bard darauf trainiert, Antworten zu generieren, die für den Kontext relevant sind und der Absicht der Benutzer entsprechen. Trotzdem kann Bard manchmal Antworten generieren, die ungenaue oder irreführende Informationen enthalten, obwohl es diese Informationen souverän und überzeugend präsentiert.
Google erklärte, dass der zugrunde liegende Mechanismus eines LLM darin besteht, das nächste Wort oder die nächste Wortfolge vorherzusagen, daher sind die Modelle noch nicht vollständig in der Lage, zwischen genauen und ungenauen Informationen zu unterscheiden.
Google Bard kann manchmal voreingenommen sein
Alle LLMs verwenden Trainingsdaten, auch aus öffentlich zugänglichen Quellen, die eine Vielfalt von Perspektiven und Meinungen widerspiegeln. Aus diesem Grund können Lücken, Verzerrungen und Stereotypen in Trainingsdaten dazu führen, dass ein Modell diese in seinen Antworten widerspiegelt.
„Wir erforschen weiterhin, wie wir diese Daten so nutzen können, dass sichergestellt wird, dass die Antwort eines LLM ein breites Spektrum an Standpunkten einbezieht und gleichzeitig beleidigende Antworten verhindert werden“, sagte Google.
Für subjektive Themen wie Politik sagte Google, dass Bard darauf ausgelegt ist, den Nutzern mehrere Perspektiven zu bieten. Der Grund dafür ist, dass Bard die Eingabeaufforderung/Eingabe nicht anhand von Fakten aus Primärquellen oder etablierten Expertenkonsens überprüfen kann.
Ja, Google Bard kann eine „Persönlichkeit“ entwickeln
Google betonte, dass Bard manchmal Antworten hervorrufen könnte, die darauf hindeuten, dass es Meinungen oder Emotionen hat, da es in einer Sprache trainiert wurde, die Menschen verwenden, um die menschliche Erfahrung widerzuspiegeln.
Um dies in Schach zu halten, sagte Google, dass es eine Reihe von Richtlinien entwickelt hat, wie Bard sich selbst darstellen könnte, und das Modell weiter verfeinern, um objektive, neutrale Antworten zu liefern.
Google Bard kann manchmal unangemessene Antworten geben
Google sagte, dass es eine Reihe von technischen Leitplanken eingerichtet hat, die verhindern, dass Bard problematische Antworten auf Eingabeaufforderungen zurückgibt, für deren Beantwortung es noch nicht geschult ist, wie z. B. schädliche/anstößige Inhalte. Bard kann diese Leitplanken jedoch manchmal falsch interpretieren, was zu „falsch positiven“ und „falsch negativen“ Ergebnissen führt.
Im Falle eines „Falsch-Positiven“ gibt Bard möglicherweise keine Antwort auf eine angemessene Aufforderung und interpretiert sie als unangemessen. Im Fall von „falsch negativ“ könnte Bard trotz der vorhandenen Leitplanken eine unangemessene Antwort generieren.
Google an Nutzer: Bard ist vorzugsweise ab 18 Jahren
Google sagte, dass es erwartet, dass Benutzer die Grenzen dessen, was Bard tun kann, testen und versuchen, Bards Schutz zu brechen – ähnlich wie es das Unternehmen im Vorfeld der Eröffnung des eingeschränkten Zugriffs versucht hat.
Google möchte diese Daten verwenden, um das Bard-Modell „vor allem in diesen frühen Tagen“ zu verfeinern, damit es verhindern kann, dass der KI-Chatbot problematische oder sensible Informationen ausgibt. Aus diesem Grund hat Google gesagt, dass Benutzer mindestens 18 Jahre alt sein müssen, um es auszuprobieren.