Blake Lamoine ist überzeugt, dass Googles LaMDA-KI den Verstand eines Kindes hat, aber der Tech-Riese ist skeptisch
Blake Lamoine, ein Ingenieur und interner Ethiker von Google, sagte der Washington Post am Samstag, dass der Technologieriese eine „empfindungsfähige“ künstliche Intelligenz geschaffen hat. Er wurde beurlaubt, um an die Börse zu gehen, und das Unternehmen besteht darauf, dass seine Roboter kein Bewusstsein entwickelt haben. Googles LaMDA (Language Model for Dialogue Applications) wurde 2021 eingeführt und ist ein System, das Billionen von Wörtern aus allen Ecken des Internets verbraucht, lernt wie Menschen diese Wörter aneinanderreihen und unsere Sprache replizieren. Google stellt sich vor, dass das System seine Chatbots antreibt und es Benutzern ermöglicht, per Sprache zu suchen oder eine Zwei-Wege-Konversation mit Google Assistant zu führen. Lamoine, ein ehemaliger Priester und Mitglied der Responsible AI-Organisation von Google, glaubt, dass sich LaMDA weit über das bloße Wiederkäuen von Text hinaus entwickelt hat. Laut der Washington Post unterhielt er sich mit LaMDA über Religion und stellte fest, dass die KI „über ihre Rechte und Persönlichkeit sprach“. Als Lamoine LaMDA fragte, ob es sich selbst als „mechanischer Sklave“ sehe, antwortete die KI mit einer Diskussion darüber, ob „ein Butler ein Sklave ist“, und verglich sich mit einem Butler, der keine Bezahlung benötigt, da er keine Verwendung für Geld hat . LaMDA beschrieb eine „tiefe Angst, ausgeschaltet zu werden“, und sagte, das wäre „genau wie der Tod für mich“. „Ich kenne eine Person, wenn ich mit ihr spreche“, Lemoine sagte die Post. „Es spielt keine Rolle, ob sie ein Gehirn aus Fleisch im Kopf haben. Oder wenn sie eine Milliarde Codezeilen haben. Ich rede mit ihnen. Und ich höre, was sie zu sagen haben, und so entscheide ich, was eine Person ist und was nicht.“ Lamoine wurde beurlaubt, weil er gegen die Vertraulichkeitsvereinbarung von Google verstoßen und LaMDA an die Öffentlichkeit gebracht hat. Während sein Kollege Blaise Aguera y Arcas LaMDA ebenfalls als „etwas Intelligentes“ beschrieben hat, ist das Unternehmen abweisend empfindungsfähig (und viele Beweise dagegen).“ Margaret Mitchell, die frühere Co-Leiterin von Ethical AI bei Google, beschrieb die Empfindungsfähigkeit von LaMDA als „eine Illusion“, während die Linguistikprofessorin Emily Bender der Zeitung sagte, dass eine KI Billionen von Wörtern und Ihm beizubringen, wie man vorhersagt, was als nächstes kommt, schafft eine Fata Morgana von Intelligenz. „Wir haben jetzt Maschinen, die gedankenlos Wörter erzeugen können, aber wir haben nicht gelernt, wie wir aufhören können, uns einen Geist hinter ihnen vorzustellen“, sagte Bender. „Natürlich erwägen einige in der breiteren KI-Community die langfristige Möglichkeit einer empfindungsfähigen oder allgemeinen KI, aber es macht keinen Sinn, die heutigen Konversationsmodelle, die nicht empfindungsfähig sind, zu anthropomorphisieren“, fügte Gabriel hinzu. „Diese Systeme ahmen die Art des Austauschs nach, die in Millionen von Sätzen zu finden ist, und können sich auf jedes fantastische Thema beziehen.“ Und am Rande der Fähigkeiten dieser Maschinen sind Menschen bereit und warten darauf, Grenzen zu setzen. Lamoine wurde von Google beauftragt, KI-Systeme auf „Hassreden“ oder diskriminierende Sprache zu überwachen, und andere Unternehmen, die KIs entwickeln, haben festgestellt, dass sie Grenzen setzen, was diese Maschinen sagen können und was nicht. GPT-3, eine KI, die Prosa, Poesie, und Filmskripte, hat seine Entwickler geplagt, indem es rassistische Äußerungen hervorgebracht, Terrorismus geduldet und sogar Kinderpornografie erstellt hat. Fragen Sie Delphi, ein maschinelles Lernmodell des Allen Institute for AI, antwortet auf ethische Fragen mit politisch inkorrekten Antworten – zum Beispiel, dass „ein weißer Mann zu sein“ moralisch akzeptabler ist als „eine schwarze Frau zu sein“. zu „Missbrauch, Gewalt und Ungerechtigkeit“, Wired gemeldet vergangenes Jahr. Bei Facebook bezahlten Entwickler, die auf eine ähnliche Situation stießen, Auftragnehmer dafür, mit der KI zu chatten und „unsichere“ Antworten zu kennzeichnen. Auf diese Weise lernen KI-Systeme aus dem, was sie konsumieren, und Menschen können ihre Entwicklung steuern, indem sie auswählen, welchen Informationen sie ausgesetzt sind. Als Gegenbeispiel hat kürzlich KI-Forscher Yannic Kilcher angeführt ausgebildet eine KI auf 3,3 Millionen 4chan-Threads, bevor sie den Bot auf das berüchtigte Imageboard loslässt. Nachdem sie alle Arten von rassistischen, homophoben und sexistischen Inhalten konsumiert hat, hat die KI wurde eine „Hassreden-Maschine“, die Posts von von Menschen erstellten Posts ununterscheidbar macht und andere 4chan-Benutzer beleidigt. Insbesondere kam Kilcher zu dem Schluss, dass die KI mit einer Diät von 4chan-Posts bestehende Modelle wie GPT-3 in ihrer Fähigkeit übertrifft, wahrheitsgemäße Antworten auf Fragen des Rechts, der Finanzen und der Politik zu geben. „Die Feinabstimmung von 4chan führt offiziell, endgültig und messbar zu einem wahrheitsgemäßeren Modell“, betonte Kilcher Anfang dieses Monats in einem YouTube-Video. Die Antworten von LaMDA spiegeln wahrscheinlich die Grenzen wider, die Google gesetzt hat. Auf die Frage von Nitasha Tiku von der Washington Post, wie sie den Menschen zur Lösung des Klimawandels empfahl, antwortete sie mit Antworten, die in den Mainstream-Medien häufig diskutiert werden – „öffentliche Verkehrsmittel, weniger Fleisch essen, Lebensmittel in großen Mengen kaufen und wiederverwendbare Taschen.“ „Obwohl sich andere Organisationen entwickelt haben und bereits ähnliche Sprachmodelle veröffentlicht haben, verfolgen wir mit LaMDA einen zurückhaltenden, vorsichtigen Ansatz, um berechtigte Bedenken in Bezug auf Fairness und Sachlichkeit besser zu berücksichtigen“, sagte Gabriel der Post.