OpenAI-Mitbegründer Ilya Sutskever glaubt, dass superintelligente KI „unvorhersehbar“ sein wird

OpenAI-Mitbegründer Ilya Sutskever Speiche Am Freitagnachmittag sprach er auf der jährlichen KI-Konferenz NeurIPS über eine Reihe von Themen, bevor er eine Auszeichnung für seine Beiträge auf diesem Gebiet entgegennahm.

Sutskever gab seine Vorhersagen für eine „superintelligente“ KI ab, eine KI, die bei vielen Aufgaben leistungsfähiger ist als der Mensch und von der er glaubt, dass sie irgendwann erreicht wird. Superintelligente KI werde „qualitativ anders“ sein als die KI, die wir heute haben, sagte Sutskever – und in einigen Aspekten nicht wiederzuerkennen.

„[Superintelligent] „Systeme werden tatsächlich auf eine echte Art und Weise agentenhaft sein“, sagte Suktsever, im Gegensatz zur aktuellen Generation „sehr leicht agentischer“ KI. Sie werden „vernünftig“ und werden dadurch unberechenbarer. Sie werden Dinge anhand begrenzter Daten verstehen. Und sie werden sich ihrer selbst bewusst sein, glaubt Sutskever.

Möglicherweise wollen sie tatsächlich Rechte. „Es ist kein schlechtes Endergebnis, wenn es KIs gibt und diese nur mit uns koexistieren und einfach nur Rechte haben wollen“, sagte Sutskever.

Nachdem er OpenAI verlassen hatte, gründete Sutskever ein Labor, Safe Superintelligence (SSI), das sich auf die allgemeine KI-Sicherheit konzentrierte. SSI hat im September 1 Milliarde US-Dollar eingesammelt.

tch-1-tech