Les entreprises qui poussent l’intelligence artificielle assimilent son « risque d’extinction » à une guerre nucléaire

Les entreprises qui poussent lintelligence artificielle assimilent son risque dextinction

Les grandes entreprises qui mènent le déploiement de l’intelligence artificielle (IA) ont mis en garde contre le menace existentielle ce qui, selon lui, signifie pour le humanité. Dans une déclaration de seulement 22 mots, les chercheurs et les PDG ont noté que le contrôle de cette émergence technologie devrait être priorisé, en assimilant son importance à celle des pandémies ou guerre nucléaire.

« Atténuer le risque de extinction de l’IA devrait être une priorité mondiale, avec d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire », lit la lettre ouverte, qui répète l’idée hypothétique et critiquée que, comme dans ‘Terminateur‘, la machine devient consciente et nous tue tous. La publication ne couvre pas les changement climatique comme une priorité ni ne suggère des actions pour minimiser cette menace présumée.

Parmi les plus de 200 personnalités qui ont signé cette déclaration, sam altmandirecteur général de Ouvrir l’IAcréateur du célèbre ChatGPT et détenu en partie par Microsoft ; Demis HassabisPDG de Google DeepMind; et professeurs d’informatique Yoshua Bengio et Geoffrey Hintonqui a démissionné il y a moins d’un mois de son poste de vice-président de l’ingénierie chez Google. Tous deux ont été reconnus avec le Prix ​​Turingprix Nobel d’informatique, pour ses travaux sur l’apprentissage en profondeur (« apprentissage en profondeur »), la technologie derrière le IA.

débat controversé

La lettre cherche à « ouvrir la discussion » sur les « risques les plus graves » d’une technologie encore en développement, un débat complexe qui a déjà donné lieu à plusieurs polémiques. Plusieurs de ces signataires ont publié une autre lettre fin mars dans laquelle ils demandaient de suspendre la formation des systèmes d’IA les plus avancés pendant six mois. Cependant, des experts critiques dans le domaine ont dénoncé que ces supposés risques futurs de l’IA sont toujours science fiction et qu’en parler sert à cacher l’impact réel que cette technologie a déjà tant en matière de travail que dans son potentiel de désinformation ou votre consommation d’eau et d’électricité.

D’autres experts sont également sceptiques quant à ce dernier avertissement. « Il faut être très clair sur le fait que l’IA n’a pas d’entité ontologique pour mettre fin à l’humanité. Une autre chose est que quelqu’un l’a programmée pour cela, mais là, le problème serait la personne, pas la technologie », a-t-il expliqué à El Periódico de Catalunya. ., du groupe Prensa Ibérica, Ulises Cortés, coordinateur scientifique de l’IA haute performance au Barcelona Supercomputing Center. « La plupart des signataires se sont enrichis grâce aux outils d’IA, en vendant le » battage médiatique « et en profitant des données d’autres personnes », ajoute-t-il.

Pour ce chercheur et d’autres, assimiler l’IA aux armes nucléaires est délicat. « La pandémie et la guerre nucléaire sont deux dangers qui reposent sur des preuves théoriques et empiriques, tandis que le risque d’extinction de l’humanité est flou, complètement incertain et basé sur une superintelligence hypothétique pour laquelle il n’y a aucune preuve », remarque-t-il. Ariel Guersenzvaig, professeur ELISAVA expert en éthique et technologie du design. « Nous n’avons pas demandé d’atténuer la physique car elle a permis la création de la bombe atomique », ajoute Cortés.

manœuvre de diversion

Si la plupart des signataires sont américains, outre-Atlantique, de nombreuses voix critiquent également ce type de déclaration apocalyptique. « Quand les frères de l’IA crient « Regardez un monstre ! » pour distraire tout le monde de leurs pratiques (vol de données, gaspillage d’énergie, escalade des biais, pollution de l’écosystème de l’information), il faudrait faire comme Scooby-Doo et enlever leur masque. » il a tweeté. Emilie Benderprofesseur de linguistique computationnelle à l’Université de Washington.

Au cours des deux dernières semaines, Altman a comparu devant le Sénat des États-Unis et a effectué une tournée en Europe au cours de laquelle il a demandé aux autorités – parmi lesquelles le président espagnol Pedro Sánchez et son homologue français Emmanuel Macron– créer un organisme chargé de superviser la sécurité des projets d’IA. Comme d’autres l’ont également souligné, Guersenzvaig voit dans ces demandes du créateur de ChatGPT une « stratégie criminelle » pour influencer et adoucir un avenir régulation des outils qu’ils déploient. « Ils nous font parler de technologie et non de qui l’utilise et dans quel but », ajoute-t-il. Face à l’hypothétique extinction de l’espèce humaine, tous les autres dangers paraîtront infimes.

fr-03