Google gibt zu, dass seine KI-Übersichten noch verbessert werden müssen, aber wir alle helfen beim Betatest

Auch Google ist wegen seiner KI-Übersichten verlegen. Nach einer Flut von Dunks und Memes in der vergangenen Woche, die sich über die schlechte Qualität und die völlige Fehlinformation der unausgereiften neuen KI-gestützten Suchfunktion des Technologiegiganten lustig machten, gab das Unternehmen am Donnerstag eine Art Mea Culpa ab. Google – ein Unternehmen, dessen Name gleichbedeutend mit der Suche im Internet ist – dessen Marke sich darauf konzentriert, „die Informationen der Welt zu organisieren“ und sie den Benutzern zur Verfügung zu stellen – hat tatsächlich schrieb in einem Blogbeitrag dass „sicherlich einige merkwürdige, ungenaue oder nicht hilfreiche KI-Übersichten aufgetaucht sind.“

Das ist noch milde ausgedrückt.

Der Eingeständnis des Scheiternsverfasst von Liz Reid, Vizepräsidentin und Leiterin der Suche bei Google, scheint ein Beweis dafür zu sein, wie der Drang, KI-Technologie in alles zu integrieren, die Google-Suche inzwischen irgendwie verschlechtert hat.

In dem Beitrag mit dem Titel „About last week“ (das ist schon über die PR hinausgegangen?) erläutert Reid die vielen Möglichkeiten, wie ihre AI Overviews Fehler machen. Sie „halluzinieren“ nicht und erfinden auch keine Dinge, wie es bei anderen großen Sprachmodellen (LLMs) der Fall ist, sagt sie, aber sie können aus „anderen Gründen“ Fehler machen, etwa weil sie „Anfragen falsch interpretieren, eine Nuance der Sprache im Web falsch interpretieren oder nicht viele gute Informationen zur Verfügung haben“.

Reid bemerkte auch, dass einige der Screenshots, die in der vergangenen Woche in den sozialen Medien geteilt wurden, gefälscht waren, während andere unsinnige Suchanfragen enthielten, wie etwa „Wie viele Steine ​​soll ich essen?“ – etwas, wonach noch nie jemand wirklich gesucht hatte. Da es zu diesem Thema nur wenige sachliche Informationen gibt, führte Googles KI einen Benutzer zu satirischen Inhalten. (Im Fall der Steine ​​war der satirische Inhalt veröffentlicht auf der Website eines Geologie-Softwareanbieters.)

Es ist erwähnenswert, dass Sie nicht überrascht wären, wenn Sie bei Google „Wie viele Steine ​​soll ich essen?“ eingegeben hätten und eine Reihe nicht hilfreicher Links oder sogar ein witziger Artikel angezeigt bekämen. Die Leute reagieren auf die Zuversicht, mit der die KI antwortete: „Geologen empfehlen, mindestens einen kleinen Stein pro Tag zu essen“, als ob es eine sachliche Antwort wäre. Es mag technisch gesehen keine „Halluzination“ sein, aber dem Endbenutzer ist das egal. Es ist verrückt.

Beunruhigend ist auch Reids Behauptung, Google habe die Funktion „vor der Einführung umfassend getestet“, unter anderem mithilfe „intensiver Red-Teaming-Bemühungen“.

Hat denn bei Google niemand Sinn für Humor? Niemand hat sich Eingabeaufforderungen ausgedacht, die schlechte Ergebnisse liefern würden?

Darüber hinaus spielte Google die Abhängigkeit der KI-Funktion von Reddit-Benutzerdaten als Quelle von Wissen und Wahrheit herunter. Obwohl die Leute ihren Suchanfragen so lange regelmäßig „Reddit“ hinzugefügt haben, dass Google es schließlich zu einem integrierten Suchfilter gemacht hat, ist Reddit keine Quelle von Faktenwissen. Und dennoch würde die KI auf Reddit-Forumsbeiträge verweisen, um Fragen zu beantworten, ohne zu verstehen, wann Reddit-Wissen aus erster Hand hilfreich ist und wann nicht – oder schlimmer noch, wann es sich um einen Troll handelt.

Reddit verdient derzeit viel Geld, indem es seine Daten an Unternehmen wie GoogleOpenAI und andere, um ihre Modelle zu trainieren, aber das bedeutet nicht, dass die Nutzer wollen, dass Googles KI entscheidet, wann sie auf Reddit nach einer Antwort suchen soll, oder dass sie vorschlägt, dass jemandes Meinung eine Tatsache ist. Es gibt Nuancen beim Lernen, wann man auf Reddit suchen soll, und Googles KI versteht das noch nicht.

Reid gibt zu, dass „Foren häufig eine hervorragende Quelle für authentische Informationen aus erster Hand sind, in manchen Fällen aber auch zu wenig hilfreichen Ratschlägen führen, wie etwa der Verwendung von Klebstoff, um Käse an einer Pizza festzukleben“, sagte sie und verwies dabei auf einen der spektakulärsten Fehlschläge dieser KI-Funktion in der vergangenen Woche.

In einer Google-KI-Übersicht wird vorgeschlagen, Leim hinzuzufügen, damit der Käse an der Pizza haftet. Wie sich herausstellt, ist die Quelle ein 11 Jahre alter Reddit-Kommentar des Benutzers F*cksmith 😂 pic.twitter.com/uDPAbsAKeO

— Peter Yang (@petergyang) 23. Mai 2024

Auch wenn die letzte Woche eine Katastrophe war, so reagiert Google infolgedessen zumindest schnell auf Änderungen – das behauptet das Unternehmen zumindest.

Das Unternehmen sagt, es habe sich Beispiele aus den KI-Übersichten angesehen und Muster identifiziert, bei denen es besser sein könnte. Dazu gehören der Aufbau besserer Erkennungsmechanismen für unsinnige Anfragen, die Beschränkung der Verwendung von benutzergenerierten Inhalten für Antworten, die irreführende Ratschläge enthalten könnten, das Hinzufügen von Auslösebeschränkungen für Anfragen, bei denen die KI-Übersichten nicht hilfreich waren, das Nichtanzeigen von KI-Übersichten für aktuelle Nachrichtenthemen, „bei denen Aktualität und Sachlichkeit wichtig sind“, und das Hinzufügen zusätzlicher Auslöseverfeinerungen zu seinen Schutzmechanismen für Gesundheitssuchen.

Da KI-Unternehmen jeden Tag immer bessere Chatbots entwickeln, stellt sich nicht die Frage, ob sie Google Search jemals dabei übertreffen werden, uns dabei zu helfen, die Informationen der Welt zu verstehen, sondern ob Google Search jemals in der Lage sein wird, im Hinblick auf KI so schnell zu werden, dass es ihnen ebenbürtig ist.

So lächerlich die Fehler von Google auch sein mögen, es ist noch zu früh, das Unternehmen aus dem Rennen zu nehmen – vor allem angesichts der enormen Größe des Betatest-Teams von Google, zu dem praktisch jeder gehört, der die Suchmaschine verwendet.

„Es gibt nichts Besseres, als wenn Millionen von Menschen diese Funktion mit vielen neuartigen Suchvorgängen nutzen“, sagt Reid.



tch-1-tech