Mithilfe von Memes sind Social-Media-Nutzer zu roten Teams für unausgereifte KI-Funktionen geworden

„Mit der Schere zu laufen ist ein Cardio-Training, das den Puls erhöhen kann und Konzentration und Fokus erfordert“, heißt es in Googles neuer KI-Suchfunktion. „Manche sagen, es kann auch die Poren verschönern und einem Kraft geben.“

Die KI-Funktion von Google hat diese Antwort von einer Website namens Komödie „Die kleine alte Dame“bei dem es sich, wie der Name schon sagt, um einen Comedy-Blog handelt. Aber der Fauxpas ist so lächerlich, dass er zusammen mit anderen offensichtlich falschen KI-Übersichten bei Google in den sozialen Medien die Runde macht. Tatsächlich machen sich jetzt normale Benutzer in den sozialen Medien über diese Produkte lustig.

Im Bereich der Cybersicherheit stellen manche Unternehmen „Red Teams“ – ethische Hacker – ein, die versuchen, ihre Produkte zu hacken, als wären sie Bösewichte. Wenn ein Red Team eine Schwachstelle findet, kann das Unternehmen sie beheben, bevor das Produkt ausgeliefert wird. Google hat sicherlich eine Art Red Teaming durchgeführt, bevor es ein KI-Produkt auf Google Search veröffentlichte, was geschätzt um Billionen von Abfragen pro Tag zu verarbeiten.

Es ist also überraschend, wenn ein hoch ressourcenreiches Unternehmen wie Google immer noch Produkte mit offensichtlichen Mängeln ausliefert. Deshalb ist es mittlerweile zu einem Meme geworden, über die Fehler von KI-Produkten zu lachen, insbesondere in einer Zeit, in der KI immer allgegenwärtiger wird. Wir haben dies bei der schlechten Rechtschreibung auf ChatGPT gesehen, bei dem Unverständnis von Videogeneratoren wie Menschen Spaghetti essenUnd Grok-KI Nachrichtenübersichten auf X, die wie Google keine Satire verstehen. Aber diese Memes könnten tatsächlich als nützliches Feedback für Unternehmen dienen, die KI entwickeln und testen.

Obwohl diese Mängel große Aufmerksamkeit erregen, spielen Technologieunternehmen ihre Auswirkungen häufig herunter.

„Die Beispiele, die wir gesehen haben, sind im Allgemeinen sehr ungewöhnliche Anfragen und nicht repräsentativ für die Erfahrungen der meisten Leute“, teilte Google Tech in einer E-Mail-Erklärung mit. „Wir haben vor der Einführung dieser neuen Erfahrung umfangreiche Tests durchgeführt und werden diese isolierten Beispiele verwenden, während wir unsere Systeme insgesamt weiter verfeinern.“

Nicht alle Nutzer sehen die gleichen KI-Ergebnisse, und wenn sich ein besonders schlechter KI-Vorschlag herumspricht, ist das Problem oft schon behoben. In einem aktuelleren Fall, der viral ging, schlug Google vor, dass, wenn Sie Pizza machen, aber der Käse bleibt nicht klebenkönnte man der Soße etwa eine Achteltasse Klebstoff hinzufügen, um sie „klebriger zu machen“. Wie sich herausstellte, zieht die KI diese Antwort aus ein elf Jahre alter Reddit-Kommentar von einem Benutzer namens „f––smith“.

Dies ist nicht nur ein unglaublicher Fehler, sondern auch ein Zeichen dafür, dass KI-Content-Deals möglicherweise überbewertet sind. Google hat eine 60-Millionen-Dollar-Vertrag mit Reddit, um seine Inhalte für das Training von KI-Modellen zu lizenzieren. Reddit hat letzte Woche einen ähnlichen Vertrag mit OpenAI unterzeichnet, und die Automattic-Unternehmen WordPress.org und Tumblr sind Gerüchteweise in Gesprächen zu sein, um Daten an Midjourney und OpenAI zu verkaufen.

Man muss Google zugutehalten, dass viele der Fehler, die in den sozialen Medien kursieren, auf unkonventionelle Suchvorgänge zurückzuführen sind, die darauf abzielen, die KI auszutricksen. Zumindest hoffe ich, dass niemand ernsthaft nach „gesundheitlichen Vorteilen des Laufens mit einer Schere“ sucht. Aber einige dieser Fehler sind schwerwiegender. Wissenschaftsjournalistin Erin Ross gepostet am X dass Google falsche Informationen darüber ausspuckt, was zu tun ist, wenn man von einer Klapperschlange gebissen wird.

Ross‘ Beitrag, der über 13.000 Likes erhielt, zeigt, dass AI empfahl, eine Aderpresse an der Wunde anzulegen, die Wunde aufzuschneiden und das Gift auszusaugen. Laut der US-Forstdienstdas sind alles Dinge, die Sie sollten nicht tun, sollten Sie gebissen werden. Unterdessen hat der Autor T Kingfisher auf Bluesky einen Beitrag erweitert, der Googles Gemini zeigt einen giftigen Pilz falsch identifizieren als gewöhnlicher weißer Champignon – Screenshots des Beitrags haben verbreiten auf anderen Plattformen als warnendes Beispiel.

Wenn eine schlechte KI-Antwort viral geht, könnte die KI durch den neuen Inhalt zum Thema, der dadurch entsteht, noch mehr verwirrt werden. Am Mittwoch postete der New York Times-Reporter Aric Toler ein Screenshot auf X das eine Abfrage zeigt, ob ein Hund jemals in der NHL gespielt hat. Die Antwort der KI war ja – aus irgendeinem Grund nannte die KI den Calgary Flames-Spieler Martin Pospisil einen Hund. Wenn Sie jetzt dieselbe Abfrage stellen, ruft die KI einen Artikel von der Daily Dot darüber, wie Googles KI immer wieder denkt, dass Hunde Sport treiben. Die KI wird mit ihren eigenen Fehlern gefüttert, was sie noch weiter vergiftet.

Dies ist das inhärente Problem beim Trainieren dieser groß angelegten KI-Modelle im Internet: Manchmal lügen die Leute im Internet. Aber genau wie es Es gibt keine Regel gegen einen Basketball spielenden Hundes gibt leider keine Regel, die großen Technologieunternehmen verbietet, schlechte KI-Produkte auszuliefern.

Wie das Sprichwort sagt: Müll rein, Müll raus.



tch-1-tech