Das „Aussterben“ von KI sollte die gleiche Priorität haben wie ein Atomkrieg – Experten – World

Das „Aussterben von KI sollte die gleiche Prioritaet haben wie

Das Center for AI Safety hat eine Erklärung veröffentlicht, die von 350 Branchenführern unterzeichnet wurde, darunter den CEOs von OpenAI und Google DeepMind

Zu verhindern, dass außer Kontrolle geratene künstliche Intelligenz das Aussterben der Menschheit verursacht, sollte weltweit oberste Priorität haben, sagte das gemeinnützige Center for AI Safety in einer Erklärung, die am Dienstag von 350 prominenten Personen aus der KI und verwandten Bereichen unterzeichnet wurde. „Das Risiko des Aussterbens durch KI verringern.“ sollten neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg globale Priorität haben“, heißt es in der Erklärung. Zu den Unterzeichnern gehörten Demis Hassabis, CEO von Google DeepMind, Dario Amodei, CEO von Anthropic, und Sam Altman, CEO von OpenAI, der kürzlich dem Kongress sagte, er sei besorgt, dass die Technologie „ganz schiefgehen“ könnte, und forderte sie auf, der Branche Vorschriften aufzuerlegen. Die drei Branchenführer trafen sich Anfang des Monats mit US-Präsident Joe Biden und Vizepräsidentin Kamala Harris, um mögliche Vorschriften zu besprechen. Auch zahlreiche Führungskräfte ihrer Unternehmen trugen ihre Namen in die Erklärung vom Dienstag ein. Geoffrey Hinton und Yoshua Bengio, die aufgrund ihrer Arbeit an neuronalen Netzen als „Paten der KI“ gelten, wurden in dem Dokument zuerst aufgeführt, obwohl Yann LeCun, der die Forschung mit ihnen durchgeführt hat und jetzt die KI-Forschung für Meta leitet, nicht unterzeichnet hat. Hinton hat Anfang des Monats seine Position bei Google aufgegeben, um vor KI-Risiken Alarm zu schlagen, und sagte, er bereue manchmal sein Lebenswerk. Der Brief stellt ein „Coming-out“ für Branchenführer dar, die ihre Sorgen über die Zukunft der KI bisher geheim gehalten hatten, sagte Dan Hendrycks, Geschäftsführer des Center for AI Safety, am Dienstag gegenüber der New York Times: „Es gibt ein weit verbreitetes Missverständnis, sogar in der „In der AIA-Community gibt es nur eine Handvoll Untergangsverderber“, erklärte er und stellte klar, dass „viele Menschen privat ihre Besorgnis über diese Dinge äußern würden.“ Die Botschaft spiegelt einen anderen offenen Brief wider, der im März vom Future of Life Institute veröffentlicht wurde und sich für ein sechsmonatiges Moratorium für groß angelegte KI-Entwicklungen ausspricht, um „einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe“ zu verhindern .“ Diese Botschaft wurde von mehr als 1.000 einflussreichen Persönlichkeiten der Technologiebranche unterzeichnet, darunter dem Milliardär Elon Musk, der gerade die Genehmigung der US-Regierung erhalten hat, mit menschlichen Tests an seiner Gehirn-Computer-Schnittstelle Neuralink fortzufahren, die den Menschen einen Wettbewerbsvorteil gegenüber der KI verschaffen soll. Allerdings sind nicht alle KI-Influencer waffenscheu. Jensen Huang, CEO von Nvidia, sagte kürzlich einem Publikum an der National Taiwan University, dass diejenigen, die sich nicht auf den KI-Moloch stürzten, zusehen müssten, wie ihre Jobs gestohlen würden, dass ihre Unternehmen untergingen und dass sie selbst – zumindest metaphorisch gesehen – aufgefressen würden, während Microsoft-Mitbegründer Bill Gates, a Ein großer KI-Investor besteht darauf, dass die Technologie nur „enorme Vorteile“ bringen wird.

:

rrt-allgemeines