Un physicien lauréat du prix Nobel «énervé» par la technologie de l’IA qu’il a contribué à créer

Un scientifique américain qui a remporté le prix Nobel de physique 2024 pour ses travaux pionniers sur l’intelligence artificielle a déclaré mardi qu’il trouvait les récents progrès technologiques « très troublants » et a mis en garde contre une possible catastrophe s’ils ne sont pas maîtrisés.

John Hopfield, professeur émérite à Princeton, s’est joint à Geoffrey Hinton, co-lauréat, pour appeler à une compréhension plus approfondie du fonctionnement interne des systèmes d’apprentissage profond afin d’éviter qu’ils ne deviennent incontrôlables.

S’adressant à un rassemblement à l’université du New Jersey par liaison vidéo depuis la Grande-Bretagne, l’homme de 91 ans a déclaré qu’au cours de sa vie, il avait assisté à l’essor de deux technologies puissantes mais potentiellement dangereuses : le génie biologique et la physique nucléaire.

« Nous sommes habitués à disposer de technologies qui ne sont pas seulement bonnes ou mauvaises, mais qui ont des capacités dans les deux sens », a-t-il déclaré.

« Et en tant que physicien, je suis très énervé par quelque chose qui n’a aucun contrôle, quelque chose que je ne comprends pas assez bien pour pouvoir comprendre quelles sont les limites auxquelles on pourrait conduire cette technologie. »

« C’est la question que pose l’IA », a-t-il poursuivi, ajoutant que même si les systèmes d’IA modernes semblent être des « merveilles absolues », il y a un manque de compréhension sur leur fonctionnement, qu’il a décrit comme « très, très énervant ».

« C’est pourquoi moi-même, et je pense que Geoffrey Hinton aussi, préconiserais fortement la compréhension comme un besoin essentiel du domaine, qui va développer certaines capacités qui dépassent les capacités que vous pouvez imaginer à l’heure actuelle. »

Hopfield a été honoré pour avoir conçu le « réseau Hopfield », un modèle théorique démontrant comment un réseau neuronal artificiel peut imiter la façon dont les cerveaux biologiques stockent et récupèrent des souvenirs.

Son modèle a été amélioré par l’Britannique-Canadien Hinton, souvent surnommé le « Parrain de l’IA », dont la « machine Boltzmann » a introduit l’élément aléatoire, ouvrant la voie aux applications modernes de l’IA telles que les générateurs d’images.

Hinton lui-même est apparu l’année dernière comme l’enfant emblématique des pessimistes de l’IA, un thème sur lequel il est revenu lors d’une conférence de presse organisée par l’Université de Toronto, où il est professeur émérite.

« Si vous regardez autour de vous, il y a très peu d’exemples de choses plus intelligentes contrôlées par des choses moins intelligentes, ce qui vous amène à vous demander si, lorsque l’IA deviendra plus intelligente que nous, elle prendra le contrôle », a déclaré aux journalistes l’homme de 76 ans. .

Chute de la civilisation

Avec l’essor fulgurant des capacités de l’IA – et la course féroce qu’elle a déclenchée entre les entreprises – la technologie a été critiquée pour avoir évolué plus rapidement que les scientifiques ne peuvent pleinement l’imaginer.

« Vous ne savez pas que les propriétés collectives avec lesquelles vous avez commencé sont en réalité des propriétés collectives avec toutes les interactions présentes, et vous ne savez donc pas si quelque chose spontané mais indésirable se cache dans les œuvres », a souligné Hopefield.

Il a évoqué l’exemple de « ice-nine » – un cristal fictif artificiellement conçu dans le roman « Cat’s Cradle » de Kurt Vonnegut de 1963, développé pour aider les soldats à faire face à des conditions boueuses mais qui gèle par inadvertance les océans du monde, provoquant la chute de la civilisation.

« Je m’inquiète de tout ce qui dit… ‘Je suis plus rapide que toi, je suis plus grand que toi… peux-tu habiter paisiblement avec moi ?’ Je ne sais pas, je m’inquiète. »

Hinton a déclaré qu’il était impossible de savoir comment échapper à des scénarios catastrophiques à l’heure actuelle, « c’est pourquoi nous avons besoin de toute urgence de davantage de recherches ».

« Je préconise que nos meilleurs jeunes chercheurs, ou un grand nombre d’entre eux, travaillent sur la sécurité de l’IA, et que les gouvernements obligent les grandes entreprises à fournir les installations informatiques dont elles ont besoin pour y parvenir », a-t-il ajouté.

© 2024

ph-tech