KI kann „halluzinieren“
In einem kürzlichen Interview mit der deutschen Zeitung Welt am Sonntag (über die Nachrichtenagentur Reuters) wies Raghavan auf die potenziellen Gefahren der künstlichen Intelligenz (KI) in Chatbots hin. Er warnte vor „Halluzinationen“ in der KI, wobei sie eine überzeugende, aber völlig erfundene Antwort geben könne.
„Diese Art von künstlicher Intelligenz, von der wir jetzt sprechen, kann manchmal zu etwas führen, das wir Halluzination nennen. Das äußert sich dann so, dass eine Maschine eine überzeugende, aber völlig erfundene Antwort liefert“, sagte er.
Raghavan fügte hinzu, dass es eine der grundlegenden Aufgaben bei der Arbeit mit KI sei, dies auf ein Minimum zu beschränken. Berichten zufolge sagte die Exekutive auch, dass Google die Dringlichkeit verspüre, Bard der Öffentlichkeit vorzustellen, aber es gebe auch eine große Verantwortung, die Menschen nicht in die Irre zu führen.
Google sagt, dass KI mit Verantwortung kommt
Dies ist nicht das erste Mal, dass Google auf die potenziellen Gefahren von KI hinweist. Bei einem Treffen im Dezember erklärten Google-CEO Sundar Pichai und Jeff Dean, Leiter der KI-Abteilung von Google, den Mitarbeitern, dass die Kosten für die Veröffentlichung eines KI-Chatbots auf Basis des Unternehmens höher sind als für ein Startup [OpenAI] weil die Leute den Antworten vertrauen, die sie von Google erhalten.
Die Führungskräfte sprachen auch darüber, dass KI-Chatbots Probleme wie Voreingenommenheit und Sachlichkeit haben, was sie ungeeignet macht, die Websuche zu ersetzen.
Das „Reputationsrisiko“ von Google
Google ist im Vergleich zu OpenAI ein viel größeres Unternehmen, und laut Dean hat es ein viel größeres „Reputationsrisiko“, wenn es falsche Informationen bereitstellt. Das sei der Grund, warum sich das Unternehmen „konservativer bewege als ein kleines Startup“.
Die KI „kann Sachen erfinden. Wenn sie sich bei etwas nicht wirklich sicher sind, werden sie Ihnen einfach sagen, dass Elefanten die Tiere sind, die die größten Eier legen oder was auch immer“, wurde Dean von CNBC zitiert.
„Wir sind unbedingt bestrebt, diese Dinge in echte Produkte zu integrieren und in Dinge, die das Sprachmodell deutlicher zeigen als unter der Decke, wo wir sie bisher verwendet haben. Aber es ist super wichtig, dass wir das richtig machen“, fügte Dean hinzu.
Googles LaMDA
Google mag mit der Veröffentlichung eines KI-gestützten Chatbots ins Hintertreffen geraten sein, aber die Kommentare der Top-Führungskräfte des Unternehmens und der vorsichtige Ansatz des Unternehmens scheinen eine gewisse Glaubwürdigkeit zu haben.
Das Unternehmen beschäftigt sich schon seit einiger Zeit mit KI. Der kürzlich eingeführte KI-Chatbot Bard von Google verwendet das Sprachmodell für Dialoganwendungen (LaMDA). Es ist das gleiche Modell, das den Chatbot des Unternehmens antreibt, der Berichten zufolge empfindungsfähig wurde – was bedeutet, dass er Dinge fühlen konnte.
Es wurde berichtet, dass ein Google-Ingenieur, der mit der Entwicklung des Chatbots in Verbindung stand, behauptete, er sei so raffiniert geworden, dass jemand, der nicht wüsste, dass er mit einem KI-Chatbot spreche, denken würde, „es sei ein Siebenjähriger, Achtjähriger -jähriges Kind, das sich zufällig mit Physik auskennt.“
Kurz nachdem diese Entwicklung öffentlich wurde, stellte Google den Ingenieur in bezahlten Urlaub und sagte, er habe eine Reihe „aggressiver“ Schritte unternommen.