Sind Sie verwirrt über künstliche allgemeine Intelligenz oder AGI? OpenAI ist besessen davon, es letztendlich auf eine Weise zu schaffen, die „der gesamten Menschheit zugute kommt“. Vielleicht möchten Sie sie ernst nehmen, da sie gerade 6,6 Milliarden US-Dollar gesammelt haben, um diesem Ziel näher zu kommen.
Aber wenn Sie sich immer noch fragen, was zum Teufel AGI überhaupt ist, sind Sie nicht allein.
In einer breit angelegten Diskussion am Donnerstag auf dem Credo AI-Gipfel zur verantwortungsvollen KI-Führung sagte Fei-Fei Li, eine weltbekannte Forscherin, die oft als „Patin der KI“ bezeichnet wird, dass sie auch nicht weiß, was AGI ist. An anderen Stellen sprach Li über ihre Rolle bei der Geburt der modernen KI, wie sich die Gesellschaft vor fortschrittlichen KI-Modellen schützen sollte und warum sie glaubt, dass ihr neues Einhorn-Startup World Labs alles verändern wird.
Aber als sie gefragt wurde, was sie von einer „KI-Singularität“ halte, war Li genauso verloren wie der Rest von uns.
„Ich komme aus der akademischen KI und wurde in den strengeren und evidenzbasierten Methoden ausgebildet, daher weiß ich nicht wirklich, was all diese Wörter bedeuten“, sagte Li in einem überfüllten Raum in San Francisco, neben einem großen Fenster mit Blick auf die Welt Golden Gate Bridge. „Ich weiß ehrlich gesagt nicht einmal, was AGI bedeutet. Wie die Leute sagen, man weiß es, wenn man es sieht, ich glaube, ich habe es nicht gesehen. Die Wahrheit ist, ich verbringe nicht viel Zeit damit, über diese Worte nachzudenken, weil ich denke, dass es noch so viel Wichtigeres zu tun gibt …“
Wenn jemand weiß, was AGI ist, dann ist es wahrscheinlich Fei-Fei Li. Im Jahr 2006 schuf sie ImageNet, den weltweit ersten großen KI-Trainings- und Benchmarking-Datensatz, der entscheidend für die Auslösung unseres aktuellen KI-Booms war. Von 2017 bis 2018 war sie Chefwissenschaftlerin für KI/ML bei Google Cloud. Heute leitet Li das Stanford Human-Centered AI Institute (HAI) und ihr Startup World Labs baut „große Weltmodelle“. (Dieser Begriff ist fast so verwirrend wie AGI, wenn Sie mich fragen.)
Sam Altman, CEO von OpenAI, hat versucht, AGI in einem Profil mit zu definieren Der New Yorker letztes Jahr. Altman beschrieb AGI als „das Äquivalent eines durchschnittlichen Menschen, den man als Kollegen einstellen könnte“.
Offensichtlich war diese Definition für ein 157-Milliarden-Dollar-Unternehmen nicht ganz gut genug, um darauf hinzuarbeiten. Also wurde OpenAI erstellt die fünf Ebenen Es verwendet es intern, um seinen Fortschritt in Richtung AGI zu messen. Die erste Ebene besteht aus Chatbots (wie ChatGPT), dann aus Denkern (anscheinend war OpenAI o1 diese Ebene), Agenten (die angeblich als Nächstes kommen), Innovatoren (KI, die dabei helfen können, Dinge zu erfinden) und auf der letzten Ebene der Organisation (KI, die … kann die Arbeit einer ganzen Organisation erledigen).
Immer noch verwirrt? Ich auch und Li auch. Außerdem klingt das alles nach viel mehr, als ein durchschnittlicher menschlicher Kollege leisten könnte.
Zu Beginn des Vortrags sagte Li, dass sie seit ihrer Kindheit von der Idee der Intelligenz fasziniert sei. Das brachte sie dazu, KI zu studieren, lange bevor es sich lohnte. In den frühen 2000er Jahren, sagt Li, legten sie und einige andere im Stillen den Grundstein für das Feld.
„Im Jahr 2012 wurde mein ImageNet mit AlexNet und GPUs kombiniert – viele Leute nennen das die Geburt der modernen KI. Es wurde von drei Schlüsselfaktoren angetrieben: Big Data, neuronale Netze und modernes GPU-Computing. Und als dieser Moment kam, glaube ich, dass das Leben für den gesamten Bereich der KI und auch für unsere Welt nie mehr das gleiche war.“
Als er nach Kaliforniens umstrittenem KI-Gesetz SB 1047 gefragt wurde, äußerte sich Li vorsichtig, um eine Kontroverse nicht noch einmal aufzuwärmen, die Gouverneur Newsom letzte Woche erst durch sein Veto gegen das Gesetz beigelegt hatte. (Wir haben kürzlich mit dem Autor von SB 1047 gesprochen, und er war eher daran interessiert, seinen Streit mit Li wieder aufzunehmen.)
„Einige von Ihnen wissen vielleicht, dass ich meine Bedenken hinsichtlich dieses Gesetzentwurfs lautstark zum Ausdruck gebracht habe [SB 1047]gegen die ein Veto eingelegt wurde, aber im Moment denke ich intensiv und voller Spannung darüber nach, nach vorne zu blicken“, sagte Li. „Ich fühlte mich sehr geschmeichelt oder fühlte mich geehrt, dass Gouverneur Newsom mich eingeladen hat, an den nächsten Schritten nach SB 1047 teilzunehmen.“
Der kalifornische Gouverneur beauftragte Li kürzlich zusammen mit anderen KI-Experten mit der Bildung einer Task Force, die dem Staat bei der Entwicklung von Leitplanken für den Einsatz von KI helfen soll. Li sagte, sie verfolge in dieser Rolle einen evidenzbasierten Ansatz und werde ihr Bestes tun, um sich für akademische Forschung und Finanzierung einzusetzen. Sie möchte jedoch auch sicherstellen, dass Kalifornien Techniker nicht bestraft.
„Wir müssen uns wirklich mit den potenziellen Auswirkungen auf Menschen und unsere Gemeinschaften befassen, anstatt die Technologie selbst zu belasten … Es würde keinen Sinn machen, wenn wir einen Autoingenieur – sagen wir Ford oder GM – bestrafen würden, wenn ein Auto absichtlich oder unabsichtlich missbraucht wird und schadet einer Person. Nur den Autoingenieur zu bestrafen, wird Autos nicht sicherer machen. Was wir tun müssen, ist, weiterhin Innovationen für sicherere Maßnahmen zu entwickeln, aber auch den rechtlichen Rahmen zu verbessern – sei es Sicherheitsgurte oder Geschwindigkeitsbegrenzungen – und das Gleiche gilt für KI.“
Das ist eines der besseren Argumente, die ich gegen SB 1047 gehört habe, das Technologieunternehmen für gefährliche KI-Modelle bestraft hätte.
Obwohl Li Kalifornien bei der KI-Regulierung berät, betreibt sie auch ihr Startup World Labs in San Francisco. Es ist das erste Mal, dass Li ein Startup gegründet hat, und sie ist eine der wenigen Frauen, die ein hochmodernes KI-Labor leitet.
„Wir sind weit entfernt von einem sehr vielfältigen KI-Ökosystem“, sagte Li. „Ich glaube, dass vielfältige menschliche Intelligenz zu vielfältiger künstlicher Intelligenz führen und uns einfach bessere Technologien bescheren wird.“
Sie freut sich darauf, in den nächsten Jahren die „räumliche Intelligenz“ näher an die Realität heranzuführen. Laut Li hat die Entwicklung der Sprache, auf der die heutigen großen Sprachmodelle basieren, wahrscheinlich eine Million Jahre gedauert, während Vision und Wahrnehmung wahrscheinlich 540 Millionen Jahre brauchten. Das bedeutet, dass die Erstellung großer Weltmodelle eine viel kompliziertere Aufgabe ist.
„Es geht nicht nur darum, Computern das Sehen zu ermöglichen, sondern sie wirklich dazu zu bringen, die gesamte 3D-Welt zu verstehen, was ich räumliche Intelligenz nenne“, sagte Li. „Wir kümmern uns nicht nur darum, Dinge zu benennen … Wir kümmern uns wirklich darum, Dinge zu tun, uns in der Welt zurechtzufinden, miteinander zu interagieren, und um diese Lücke zwischen Sehen und Handeln zu schließen, ist räumliches Wissen erforderlich.“ Als Technologe freue ich mich sehr darüber.“