Nobelpreisgekrönter Physiker ist „entnervt“ von der KI-Technologie, die er mitentwickelt hat

Ein US-Wissenschaftler, der für seine bahnbrechenden Arbeiten zur künstlichen Intelligenz mit dem Nobelpreis für Physik 2024 ausgezeichnet wurde, sagte am Dienstag, er fände die jüngsten Fortschritte in der Technologie „sehr beunruhigend“ und warnte vor einer möglichen Katastrophe, wenn sie nicht unter Kontrolle gehalten würden.

John Hopfield, ein emeritierter Professor an der Princeton University, forderte gemeinsam mit dem Mitpreisträger Geoffrey Hinton ein tieferes Verständnis des Innenlebens von Deep-Learning-Systemen, um zu verhindern, dass sie außer Kontrolle geraten.

Der 91-Jährige sprach per Videoübertragung aus Großbritannien zu einer Versammlung an der Universität von New Jersey und sagte, er habe im Laufe seines Lebens den Aufstieg zweier mächtiger, aber potenziell gefährlicher Technologien beobachtet – der Biotechnik und der Kernphysik.

„Man ist es gewohnt, Technologien zu haben, die nicht nur einzeln gut oder nur schlecht sind, sondern Fähigkeiten in beide Richtungen haben“, sagte er.

„Und als Physiker bin ich sehr entnervt von etwas, das keine Kontrolle hat, etwas, das ich nicht gut genug verstehe, um zu verstehen, wo die Grenzen liegen, die man dieser Technologie vorantreiben könnte.“

„Das ist die Frage, die die KI aufwirft“, fuhr er fort und fügte hinzu, dass moderne KI-Systeme zwar „absolute Wunder“ zu sein scheinen, es aber an Verständnis für ihre Funktionsweise mangelt, was er als „sehr, sehr beunruhigend“ bezeichnete.

„Deshalb würde ich selbst, und ich denke auch Geoffrey Hinton, nachdrücklich dafür eintreten, dass Verständnis ein wesentliches Bedürfnis des Fachgebiets ist, das einige Fähigkeiten entwickeln wird, die über die Fähigkeiten hinausgehen, die man sich derzeit vorstellen kann.“

Hopfield wurde für die Entwicklung des „Hopfield-Netzwerks“ geehrt – eines theoretischen Modells, das zeigt, wie ein künstliches neuronales Netzwerk die Art und Weise nachahmen kann, wie biologische Gehirne Erinnerungen speichern und abrufen.

Sein Modell wurde vom Briten-Kanadier Hinton verbessert, der oft als „Godfather of AI“ bezeichnet wird, dessen „Boltzmann-Maschine“ das Element des Zufalls einführte und den Weg für moderne KI-Anwendungen wie Bildgeneratoren ebnete.

Hinton selbst trat letztes Jahr als Aushängeschild für KI-Untergangspropheten hervor, ein Thema, auf das er während einer Pressekonferenz der University of Toronto zurückkam, wo er als emeritierter Professor tätig ist.

„Wenn man sich umschaut, gibt es nur sehr wenige Beispiele dafür, dass intelligentere Dinge von weniger intelligenten Dingen gesteuert werden. Da fragt man sich, ob die KI, wenn sie intelligenter wird als wir, die Kontrolle übernehmen wird“, sagte der 76-Jährige gegenüber Reportern .

Zivilisationsuntergang

Mit dem kometenhaften Aufstieg der KI-Fähigkeiten – und dem heftigen Wettlauf, den er unter Unternehmen ausgelöst hat – wird die Technologie dafür kritisiert, dass sie sich schneller entwickelt, als Wissenschaftler vollständig nachvollziehen können.

„Sie wissen nicht, dass die kollektiven Eigenschaften, mit denen Sie begonnen haben, tatsächlich die kollektiven Eigenschaften mit allen vorhandenen Wechselwirkungen sind, und Sie wissen daher nicht, ob in den Werken etwas Spontanes, aber Unerwünschtes verborgen liegt“, betonte Hopefield.

Er verwies auf das Beispiel von „Ice-Nine“ – einem fiktiven, künstlich hergestellten Kristall aus Kurt Vonneguts Roman „Cat’s Cradle“ aus dem Jahr 1963, der entwickelt wurde, um Soldaten bei der Bewältigung schlammiger Bedingungen zu helfen, der aber unbeabsichtigt die Weltmeere festfriert und so den Untergang der Zivilisation verursacht.

„Ich mache mir Sorgen über alles, was sagt … ‚Ich bin schneller als du, ich bin größer als du … kannst du friedlich mit mir zusammenleben?‘ Ich weiß es nicht, ich mache mir Sorgen.

Hinton sagte, es sei derzeit unmöglich zu wissen, wie man Katastrophenszenarien entkommen könne, „deshalb brauchen wir dringend mehr Forschung.“

„Ich plädiere dafür, dass unsere besten jungen Forscher, oder viele von ihnen, an der KI-Sicherheit arbeiten sollten, und die Regierungen sollten die großen Unternehmen dazu zwingen, die Rechenanlagen bereitzustellen, die sie dafür benötigen“, fügte er hinzu.

© 2024

ph-tech