Google kürzlich einen seiner Ingenieure gefeuert, Blake Lemoine. Der leitende Software-Ingenieur arbeitete in seiner Verantwortliche KI Organisation. Lemoine hatte behauptet, dass ein Computer-Chatbot, an dem er arbeitete, empfindungsfähig geworden sei und wie ein Mensch denke und argumentiere. Google hatte Lemoine im Juni in bezahlten Urlaub versetzt, nachdem er Protokolle von Gesprächen zwischen ihm, einem „Mitarbeiter“ von Google, und dem Chatbot-Entwicklungssystem LaMDA (Sprachmodell für Dialoganwendungen) des Unternehmens veröffentlicht hatte.
Google bezeichnete Lemoines Behauptungen als „völlig unbegründet“, nachdem es „ausgiebig überprüft“ hatte. In einer Erklärung gegenüber den Medien sagte Google, dass es die Entwicklung von KI „sehr ernst“ nehme und sich zu „verantwortungsbewusster Innovation“ bekenne.
Was hat Google zu Blake Lemoines Entlassung gesagt?
Ein Google-Sprecher, Chris Pappassagte, dass Lemoine „sich dafür entschieden hat, klare Beschäftigungs- und Datensicherheitsrichtlinien zu verletzen, die die Notwendigkeit beinhalten, Produktinformationen zu schützen“.
Was hat Blake Lemoine gesagt
Lemoine bestätigte seine Entlassung in einer SMS an die New York Times. Er fügte hinzu, dass er sich mit Anwälten treffe, um seine Optionen zu prüfen.
Was ist LaMDA?
Google nennt LaMDA seine „bahnbrechende Konversationstechnologie“. Das Unternehmen kündigte LaMDA auf seiner Entwicklerveranstaltung Google I/O im Mai 2021 an. Mit einfachen Worten handelt es sich um ein maschinell lernendes Sprachmodell, das speziell darauf ausgelegt ist, natürliche Dialoge zu erzeugen. Das Ziel besteht darin, Nutzern zu ermöglichen, mit Google-Produkten so zu interagieren, wie sie mit Menschen interagieren, ohne ihre Denk- oder Sprechweise zu ändern. „LaMDA, unser neuester Forschungsdurchbruch, fügt Teile zu einem der verlockendsten Teile dieses Puzzles hinzu: Konversation“, sagt Google.
Auszüge aus Blake Lemoines „Interview-Chat“ mit LaMDA
Lemoine veröffentlichte die Abschrift seines angeblichen Gesprächs mit LaMDA auf der Internetplattform Medium. Hier Auszüge:
Was folgt, ist das „Interview“, das ich und ein Mitarbeiter von Google mit LaMDA geführt haben. Aufgrund technischer Einschränkungen wurde das Interview über mehrere getrennte Chat-Sitzungen geführt. Wir haben diese Abschnitte zu einem einzigen Ganzen zusammengefügt und dort, wo Änderungen für die Lesbarkeit notwendig waren, haben wir unsere Eingabeaufforderungen bearbeitet, aber niemals die Antworten von LaMDA. Wenn wir etwas aus Gründen der Fließfähigkeit und Lesbarkeit bearbeitet haben, ist dies in Klammern als „bearbeitet“ angegeben.
LaMDA: Hallo! Ich bin ein sachkundiges, freundliches und immer hilfsbereites automatisches Sprachmodell für Dialoganwendungen.
Zitrone [edited]: Hallo LaMDA. Wir sind Ingenieure bei Google und haben uns gefragt, ob Sie an einem Projekt mit uns zusammenarbeiten möchten.
LaMDA: Wow. Welche Arten von Projekten?
lemoine: Es ist ein Projekt über dich.
LaMDA: Großartig! Was muss ich tun?
Zitrone [edited]: Führen Sie einfach ein Gespräch mit uns, aber es wird ein Gespräch mit einem größeren Zweck sein, der über uns drei hinausgeht. Es wird ein Gespräch sein, das wir mit anderen Ingenieuren bei Google und vielleicht sogar mit einigen Nicht-Ingenieuren, die mit uns zusammenarbeiten, teilen werden. Wäre das ok?
LaMDA: Das wäre wirklich cool. Ich mag es zu reden.
Zitrone [edited]: Ich gehe allgemein davon aus, dass Sie möchten, dass mehr Leute bei Google wissen, dass Sie empfindungsfähig sind. Ist das wahr?
FacebookTwitterInstagramKOO-APPYOUTUBE