KI-Modell: Das „menschengefährdende“ KI-Modell von OpenAI: Was Lehren aus Google und Meta ziehen

KI Modell Das „menschengefaehrdende KI Modell von OpenAI Was Lehren aus Google
Es gibt keine offizielle Erklärung dafür OpenAI Der Vorstand entließ CEO Sam Altman, Berichten zufolge war dies jedoch auf die Entwicklung eines leistungsstarken KI-Algorithmus zurückzuführen, der die Menschheit hätte bedrohen können. Berichten zufolge betrachtete der Vorstand dies als Bedenken hinsichtlich der Kommerzialisierung von Fortschritten, ohne die Konsequenzen zu verstehen.
Die Details dieses KI-Algorithmus werden von OpenAI nicht geteilt, sie scheinen jedoch früheren Instanzen von etwas ähnlich zu sein Google und Facebook-Elternteil Meta wo die Technologiegiganten sie schließen mussten.
Der KI-Algorithmus von OpenAI
Die Nachrichtenagentur Reuters berichtete über ein Projekt namens Q* (ausgesprochen Q-Star), das als Durchbruch bei der Suche des Startups nach künstlicher allgemeiner Intelligenz (AGI) gilt. OpenAI definiert AGI als autonome Systeme, die den Menschen bei den wirtschaftlich wertvollsten Aufgaben übertreffen.
In dem Bericht heißt es, dass das neue Modell mit enormen Rechenressourcen in der Lage sei, bestimmte mathematische Probleme zu lösen, die Forscher jedoch hinsichtlich des zukünftigen Erfolgs von Q* sehr optimistisch stimmte. Mira Murati, CTO von OpenAI, warnte die Mitarbeiter jedoch davor, solche Medienberichte zu unterhalten.
Die KI-Roboter von Meta entwickeln ihre eigene Sprache
Die Berichte über die beiden künstlich intelligenten Programme von Meta, die sich in ihrer eigenen Sprache entwickeln und unterhalten, tauchten erstmals im Jahr 2017 auf. Das Unternehmen gab das Experiment ab, bei dem es zwei Chatbots für den internen Gebrauch entwickelte. Die von diesen beiden Programmen entwickelte Sprache schien für den Menschen größtenteils unverständlich.
Forscher am Facebook AI Research Lab (FAIR) sagte, dass die Roboter angewiesen wurden, herauszufinden, wie sie untereinander verhandeln könnten, aber später herausfand, dass die Chatbots vom Skript abgewichen waren und in einer neuen Sprache kommunizierten, die ohne menschliches Zutun entwickelt wurde.
Das ist faszinierend und besorgniserregend zugleich – es deutet sowohl auf das positive als auch potenziell erschreckende Potenzial der KI für die Menschheit hin.
Googles „fühlendes“ LaMDA KI-Modell
Ähnliches passierte bei Google. Im Jahr 2021 kündigte Google LaMDA an, die Abkürzung für „Language Model for Dialogue Applications“, das in der Lage ist, Konversationen aufzunehmen, wie wir sie derzeit in KI-Chatbots wie ChatGPT und OpenAI sehen Google Bard. Ein Jahr später behauptete einer der Ingenieure des Unternehmens, dass das unveröffentlichte KI-System empfindungsfähig geworden sei.
Blake Lemoine, ein Softwareentwickler bei Google, behauptete, dass eine Konversationstechnologie ein Bewusstseinsniveau erreicht habe, nachdem Tausende von Nachrichten damit ausgetauscht wurden. Das Unternehmen entließ den Ingenieur später mit der Begründung, er habe gegen Beschäftigungs- und Datensicherheitsrichtlinien verstoßen.
Das Unternehmen wies auch Lemoines „völlig unbegründete“ Ansprüche nach eingehender Prüfung zurück. Google sagte außerdem, dass es die Entwicklung der KI „sehr ernst“ nehme und sich zu „verantwortungsvoller Innovation“ verpflichtet habe. Sowohl Google als auch Meta gehören zu einer Gruppe von Technologiegiganten, die sich einer verantwortungsvollen Entwicklung der KI verschrieben haben.
Ähnliche Vorfälle ereigneten sich, als letztes Jahr frühe Chatbots veröffentlicht wurden. Die Leute berichteten, dass die Antworten der Chatbots beängstigend waren, als sie über die Übernahme der Welt und das Ende der Menschheit sprachen. Daraufhin wurden Kontrollen angebracht und Leitplanken angebracht, um die Modelle weiter zu verfeinern.
Stunden gelernt
Technologie ist ein sich entwickelnder Prozess und Experimente sind eine Möglichkeit zu testen, ob eine bestimmte Art von Technologie nützlich oder schädlich ist. Teil dieses Prozesses ist die Entwicklung von Modellen durch Meta und Google und deren anschließende Schließung/Feinabstimmung/Einschränkung.
Sundar Pichai, CEO von Google, hatte ebenfalls erklärt, dass das Unternehmen viel zu verlieren habe und sich eines Produkts, insbesondere der KI, sicher sein wolle, bevor es es der Öffentlichkeit zugänglich mache.

toi-tech