Wenn Sie weitere Beweise dafür benötigen, dass GenAI dazu neigt, Dinge zu erfinden: Der Gemini-Chatbot von Google, ehemals Bard, glaubt, dass der Super Bowl 2024 bereits stattgefunden hat. Es gibt sogar die (fiktiven) Statistiken, die dies untermauern.
Laut Reddit Faden, Gemini, angetrieben von den gleichnamigen GenAI-Modellen von Google, beantwortet Fragen zum Super Bowl LVIII, als ob das Spiel gestern – oder Wochen zuvor – zu Ende gegangen wäre. Wie viele Buchmacher scheint es die Chiefs gegenüber den 49ers zu bevorzugen (sorry, Fans von San Francisco).
Gemini schmückt ziemlich kreativ, indem er in mindestens einem Fall die Statistiken eines Spielers aufschlüsselt und darauf schließen lässt, dass Kansas Chief-Quarterback Patrick Mahomes 286 Yards für zwei Touchdowns und eine Interception lief, während Brock Purdy 253 Yards und einen Touchdown erzielte.
Es sind nicht nur Zwillinge. Auch der Copilot-Chatbot von Microsoft besteht darauf, dass das Spiel beendet sei, und liefert falsche Zitate, um die Behauptung zu untermauern. Aber – vielleicht spiegelt es eine Tendenz zu San Francisco wider! – Es heißt, dass die 49ers und nicht die Chiefs „mit einem Endergebnis von 24-21“ als Sieger hervorgegangen seien.
Es ist alles ziemlich albern – und möglicherweise inzwischen behoben, wenn man bedenkt, dass dieser Reporter kein Glück hatte, die Gemini-Antworten im Reddit-Thread zu reproduzieren. Aber es verdeutlicht auch die großen Grenzen der heutigen GenAI – und die Gefahren, wenn man ihr zu viel vertraut.
GenAI-Modelle verfügen über keine wirkliche Intelligenz. Anhand einer enormen Anzahl von Beispielen, die normalerweise aus dem öffentlichen Internet stammen, lernen KI-Modelle anhand von Mustern, einschließlich des Kontexts aller umgebenden Daten, wie wahrscheinlich es ist, dass Daten (z. B. Text) vorkommen.
Dieser wahrscheinlichkeitsbasierte Ansatz funktioniert im großen Maßstab bemerkenswert gut. Aber während die Bandbreite der Wörter und ihre Wahrscheinlichkeiten sind wahrscheinlich Es ist alles andere als sicher, ob ein Text entsteht, der Sinn ergibt. LLMs können beispielsweise etwas hervorbringen, das grammatikalisch korrekt, aber unsinnig ist – wie die Behauptung über das Golden Gate. Oder sie verbreiten Unwahrheiten und verbreiten Ungenauigkeiten in ihren Trainingsdaten.
Die Desinformation beim Super Bowl ist sicherlich nicht das schädlichste Beispiel dafür, dass die GenAI aus dem Ruder gelaufen ist. Dieser Unterschied liegt wahrscheinlich bei befürworten Folter bzw überzeugend schreiben über Verschwörungstheorien. Es ist jedoch eine nützliche Erinnerung, die Aussagen von GenAI-Bots noch einmal zu überprüfen. Es besteht eine gute Chance, dass sie nicht wahr sind.