Robert Oppenheimer, l’un des pères de la bombe atomique, a dit de son invention : nous savions que le monde ne serait plus le même. Avec cette phrase retentissante, Dan Hendrycks, le directeur du Center for AI Security (CAIS) a rapporté un nouveau manifeste signé par des experts et des dirigeants des principales entreprises qui cherchent empêcher l’intelligence artificielle (IA) de conduire à l’extinction de l’humanité. Parmi les signatures figure celle de Sam Altman, père de ChatGPT, qui s’est récemment rendu en Espagne dans le cadre d’une campagne mondiale visant à promouvoir la réglementation de cette technologie.
Un nouveau manifeste sur le site du Center for AI Security invite à discuter des craintes des principaux acteurs de cette industrie naissante. Le texte compare, une fois de plus, le danger de cette nouvelle technologie aux grandes menaces connues de la population comme les armes nucléaires. « L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale ainsi que d’autres risques à l’échelle sociétale tels que les pandémies et la guerre nucléaire » peut-on lire.
Sam Altman, PDG et John Chulman, co-fondateur du fabricant de ChatGPT OpenAI, signent la lettre avec Demis Hassabis PDG de Google DeepMind et Dario Amodei d’Anthropic. Des universitaires et des chercheurs du monde entier soutiennent le manifeste dans une longue liste, même si pour le moment d’autres noms tels qu’Elon Musk, le magnat de Twitter, SpaceX et Tesla, ont signé le premier de ces manifestes avant que l’on sache qu’il avait l’intention de créer sa propre intelligence artificielle. . Cependant, la liste est ouverte afin que les signatures de soutien continuent d’arriver.
[El ‘padre’ de ChatGPT recula y no dejará a Europa sin su IA: « No tenemos planes de irnos »]
Le Center for AI Security (CAIS) se définit comme une organisation à but non lucratif dont la mission est de « réduire les risques sociétaux associés à l’IA en mener des recherches sur la sécurité, construire le domaine des chercheurs en sécurité de l’IA et la défense des normes de sécurité ». Ses composantes ne manquent pas l’occasion de préciser sur leur site internet qu’elles considèrent que l’intelligence artificielle « a le potentiel de bénéficier profondément au monde, tant que nous pouvons la développer et l’utiliser en toute sécurité ».
L’organisation assure que « l’objectif de cette nouvelle lettre est de permettre l’expression d’inquiétudes sur certains des risques les plus graves de l’IA avancée et créer une compréhension commune du nombre croissant d’experts et de personnalités publiques qui prennent également certains risques au sérieux« . Le moment de le publier coïncide avec le réveil des gouvernements pour légiférer sur cette technologie, une intention qui est également mentionnée dans le texte comme l’une des raisons pour lesquelles ils ont publié la lettre. Ils ne demandent pas d’arrêter son développement, comme si d’autres ont demandé des experts.
Parmi les signataires figure également Geoffrey Hinton, le soi-disant « parrain de l’IA », qui à 75 ans a annoncé au début du mois sa démission de la vice-présidence de l’ingénierie chez Google pour dédié à alerter le côté obscur de cette technologie qu’il a lui-même contribué à créer. Cet expert a montré son inquiétude quant à la facilité avec laquelle les nouveaux modèles d’intelligence artificielle générative tels que ChatGPT ou Midjourney générer de faux textes, photos et vidéos. Les autorités chinoises ont arrêté un suspect pour avoir diffusé de fausses nouvelles créées avec ChatGPT il y a quelques jours.
Hilton craint également que les nouveaux outils puissent licencier un grand nombre de travailleurs. Une autre mise en garde émise par la communauté médicale sur l’impact que cette nouvelle technologie peut engendrer sur la santé de la population a récemment été mise au jour, entre autres raisons, en raison de l’adoption d’outils sans contrôles qui assurent leur bon fonctionnement et l’encadrement de professionnels . , surtout lorsqu’il s’agit de faire des diagnostics chez les patients.
Comme indiqué dans la première phrase de la page des signataires, il existe de nombreux «risques importants et urgents liés à l’IA», pas seulement le risque d’extinction; par exemple, les biais systémiques, la désinformation, l’utilisation malveillante, les cyberattaques et la militarisation. Ce sont tous des risques importants qui doivent être… pic.twitter.com/oYEFXbbzUW
—Dan Hendrycks (@DanHendrycks) 30 mai 2023
Bien que la publication ne détaille pas en grande partie les risques auxquels ils font référence, sans ouvrir la porte au débat, Dan Hendrycks, directeur de l’asbl responsable de l’initiative, a expliqué sur les réseaux sociaux que parmi les risques qui sont à aborder préjugés systémiques, désinformation, utilisation malveillante, cyberattaques et militarisation. « Du point de vue de la gestion des risques, tout comme il serait imprudent de prioriser exclusivement les dommages actuels, il serait également imprudent de les ignorer », dit-il.
Tu pourrais aussi aimer…
Suivez les sujets qui vous intéressent