Googles KI liefert Menschen Antworten von The Onion

Als Internetnutzer haben wir alle schon oft eine so lächerliche Nachricht gesehen, dass wir dachten: „Das scheint eine Zwiebel Schlagzeile.“ Aber als echte Menschen haben die meisten von uns die Fähigkeit, zwischen Realität und Satire zu unterscheiden. Leider fehlt Googles neu eingeführter „AI Overview“ diese entscheidende Fähigkeit. Die Funktion, die vor weniger als zwei Wochen eingeführt wurde (ohne dass Benutzer sich abmelden können), bietet Antworten auf bestimmte Fragen oben auf der Seite über allen anderen Online-Ressourcen. Die künstliche Intelligenz erstellt seine Antworten auf der Grundlage von Wissen, das es aus dem gesamten Web zusammengetragen hat. Das wäre großartig, aber nicht alles im Internet ist wahr oder richtig. Offensichtlich.

Ben Collins, einer der neuen Besitzer unserer ehemaligen Schwesterseite, wies in seinen sozialen Medien auf einige der gravierendsten Fehler von AI Overview hin. Auf die Frage „Wie viele Steine ​​soll ich täglich essen?“ antwortete Overview, dass Geologen empfehlen, „mindestens einen kleinen Stein pro Tag“ zu essen. Diese Formulierung wurde natürlich fast wortwörtlich aus einem Artikel aus dem Jahr 2021 übernommen. Zwiebel Schlagzeile. Eine weitere Suche, „welche Farbe Textmarker verwendet die CIA“, veranlasste Overview zur Antwort „schwarz“, was eine Zwiebel Witz aus dem Jahr 2005.

Schriftsteller Parker Molloy führte weitere Tests durch die ergab, dass Googles KI einfach nicht zwischen Nachrichten und Satire unterscheiden konnte. Andere Beispiele deuten jedoch darauf hin, dass das Tool nicht weiß, wie es schlechte Informationen aussortieren soll, Punkt. Eine virale Suche nach dem Thema, wie man verhindert, dass Käse von einer Pizza rutscht, führte zu der Antwort, es mit ungiftigem Kleber zu versuchen, was offenbar einem zehn Jahre alten Reddit-Kommentar entstammt. (Katie Notopoulos von Geschäftseingeweihter tatsächlich die Leimpizza gemacht und gegessen – Sie können ihre Reise verfolgen Hier.) Einige Antworten sind erwartungsgemäß düsterer. Zum Beispiel: Ein Benutzer hat gesucht „Wie viele muslimische Präsidenten hatten die USA?“ und das Ergebnis war: „Die Vereinigten Staaten hatten einen muslimischen Präsidenten, Barack Hussein Obama.“

In einem Aussage zu CNBCEin Google-Sprecher verteidigte das Produkt. „Die überwiegende Mehrheit der AI Overviews bietet qualitativ hochwertige Informationen mit Links, um tiefer im Web zu graben“, hieß es. „Viele der Beispiele, die wir gesehen haben, waren ungewöhnliche Anfragen, und wir haben auch Beispiele gesehen, die manipuliert waren oder die wir nicht reproduzieren konnten.“ Das Unternehmen versicherte, dass AI Overview umfangreichen Tests unterzogen wurde und dass Google „im Rahmen unserer Inhaltsrichtlinien gegebenenfalls rasch Maßnahmen ergreifen“ werde.

Mit anderen Worten: Die albernen viralen Suchanfragen, die Sie überall in den sozialen Medien sehen, wurden wahrscheinlich bereits gelöscht. Wenn das „Experiment“ jedoch weitergeht, werden wir nicht überrascht sein, wenn noch mehr beunruhigend ungenaue Suchergebnisse auftauchen. Natürlich soll KI lernen und sich verbessern, je mehr man sie verwendet, aber wenn das Internet immer mehr mit Müll und Unsinn gefüllt wird, was soll dann AI Overview lernen? Die ganze Situation scheint den Schlagzeilen entsprungen zu sein –Die Zwiebel Schlagzeilen, wohlgemerkt. Manchmal ist die Realität dümmer als die Satire.

ac-leben-gesundheit