Laut Geoffrey Hinton ist die Wahrscheinlichkeit gestiegen, dass künstliche Intelligenz innerhalb der nächsten 30 Jahre zum Aussterben der Menschheit führt
Laut Geoffrey Hinton, einem Pionier der KI und Träger des Nobelpreises für Physik 2024, könnte künstliche Intelligenz innerhalb von drei Jahrzehnten mit einer Wahrscheinlichkeit von bis zu 20 % zum Aussterben der Menschheit führen. Dies stellt einen Anstieg gegenüber einem Risiko von 10 % dar, das er noch vor einem Jahr geschätzt hatte. Während eines Interviews auf BBC Radio 4 am Donnerstag wurde Hinton gefragt, ob sich seit seiner vorherigen Schätzung, dass die Wahrscheinlichkeit einer KI-Apokalypse bei eins zu zehn liege, etwas geändert habe. Der mit dem Turing-Preis ausgezeichnete Wissenschaftler antwortete: „Nicht wirklich, 10 bis 20 %.“ Dies führte dazu, dass der Gastredakteur der Sendung, der ehemalige Kanzler Sajid Javid, witzelte: „Sie steigen.“ Der Informatiker, der letztes Jahr bei Google ausgestiegen war, antwortete: „Wenn überhaupt. Sehen Sie, wir mussten uns noch nie mit Dingen befassen, die intelligenter sind als wir selbst.“ Der britisch-kanadische Wissenschaftler, der für seine Beiträge zur KI in diesem Jahr den Nobelpreis für Physik erhielt, betonte die Herausforderungen bei der Steuerung fortschrittlicher KI-Systeme. „Wie viele Beispiele kennen Sie dafür, dass ein intelligenteres Ding von einem weniger intelligenten Ding kontrolliert wird? … Die Evolution hat viel Arbeit darauf verwendet, dem Baby die Kontrolle über die Mutter zu ermöglichen, aber das ist so ziemlich das einzige Beispiel, das ich kenne“, sagt Hinton , der oft als „der Pate der KI“ bezeichnet wird, sagte. Er schlug vor: „Stellen Sie sich und einen Dreijährigen vor. „Wir werden die Dreijährigen sein“, verglichen mit einer zukünftigen KI, die „intelligenter als Menschen“ wäre. Hinton stellte fest, dass der Fortschritt „viel schneller als erwartet“ erfolgt sei, und forderte eine Regulierung, um die Sicherheit zu gewährleisten. Er warnte davor, sich ausschließlich auf die Profitinteressen der Unternehmen zu verlassen, und erklärte: „Das Einzige, was diese großen Unternehmen dazu zwingen kann, mehr Sicherheitsforschung zu betreiben, ist eine staatliche Regulierung.“ Im Mai 2023 veröffentlichte das Center for AI Safety eine von prominenten Wissenschaftlern unterzeichnete Erklärung Das Feld, darunter Hinton, warnte, dass „die Eindämmung des Risikos des Aussterbens durch KI neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein sollte.“ Zu den Unterzeichnern gehören Tesla-CEO Elon Musk, Apple-Mitbegründer Steve Wozniak und Yoshua Bengio, der aufgrund seiner Arbeit an neuronalen Netzen als KI-Pionier gilt. Hinton glaubt, dass KI-Systeme irgendwann die menschliche Intelligenz übertreffen, sich der menschlichen Kontrolle entziehen und möglicherweise katastrophale Folgen haben könnten Schaden für die Menschheit. Er befürwortet die Bereitstellung erheblicher Ressourcen, um die Sicherheit und den ethischen Einsatz von KI zu gewährleisten, und betont außerdem die dringende Notwendigkeit proaktiver Maßnahmen, bevor es zu spät ist. Yann LeCun, Chef-KI-Wissenschaftler bei Meta, hat im Gegensatz zu Hinton Ansichten geäußert und erklärt, dass die Technologie „tatsächlich sparen könnte“. Menschheit vor dem Untergang.“
: