La intelligence artificielle (IA) avance à un rythme effréné. Depuis l’accès à ChatGPT a été ouvert au public en novembre dernier, le secteur technologique a accéléré son engagement dans le lancement d’outils qui offrent aux machines une capacité de réponse de plus en plus puissante. Microsoft il a pris la tête d’une course commerciale « hors de contrôle » qui peut lui rapporter des profits de plusieurs milliards de dollars, mais dont l’impact social, économique et culturel comporte « des risques profonds pour l’humanité ».
C’est cette peur qui a conduit plus de 1 000 personnalités à signer un lettre ouverte dans laquelle il est demandé aux laboratoires d’IA de « suspendre immédiatement pendant au moins 6 mois » la formation de systèmes plus puissants que GPT-4. Il s’agit de la dernière génération du modèle de langage de Ouvrir l’IA, le créateur de ChatGPT, publié le 14 mars et que Microsoft intègre déjà dans ses services, de son moteur de recherche Bing à des programmes comme Word ou Excel. « Cette pause doit être publique et vérifiable (…) si elle ne peut pas se faire rapidement, les gouvernements devraient intervenir et instituer un moratoire », expliquent-ils.
La lettre est signée par 1 125 experts, issus à la fois du monde des affaires et surtout du monde académique. De manière significative, le premier signataire est un informaticien canadien Yoshua Bengiol’un des pionniers dans l’avancement de l’apprentissage en profondeur, la technologie sur laquelle reposent des systèmes tels que ChatGPT. Parmi les signataires, des noms comme ceux de Elon MuskPDG de Tesla, Twitter et SpaceX, Steve Wozniakco-fondateur d’Apple, l’intellectuel Yuval Noé Harari ou le politicien Andrew Yang, Candidat démocrate des États-Unis à la présidentielle de 2020. Ils sont également accompagnés des co-fondateurs de plateformes telles que Skype, Pinterest ou encore Ripple.
IA peu fiable
Bien que ce soient les noms les plus populaires, la plupart des signataires sont des universitaires et des chercheurs renommés en IA du monde entier. « C’est un technologie dont l’objectif est de créer un texte qui ressemble au langage humain, mais qui a un problème sous-jacent très important, à savoir qu’il ne peut pas garantir que ce qu’il dit est vrai, ce n’est pas fiable », explique Carles Sierra, directeur de l’Institut de recherche sur l’intelligence artificielle (IIIA ) du Conseil Supérieur de la Recherche Scientifique (CSIC), à EL PERIÓDICO par téléphone.
Ce manque de fiabilité signifie que, selon Sierra, les conséquences sont imprévisibles, mais potentiellement aussi « dangereuses » que les « goûts » du réseaux sociaux. Raison de la demande d’un régulation qui protège les citoyens de la stratégie « téméraire » des géants de la technologie comme Microsoft.
Parmi les prestigieux experts nationaux qui signent cette lettre figurent Ramón López de Mantarasdirecteur de l’IIA ; Francesc Giralt, professeur émérite à l’Université Rovira i Virgili ; soit Matthieu Valerodirecteur du Barcelona Supercomputing Center – National Supercomputing Center.
La plupart des 1 125 personnes qui ont signé la lettre sont des experts d’universités et de centres de recherche en IA. « Les universitaires peuvent parler plus clairement des limites qui existent au sein de l’industrie technologique », déclare Sierra. « Le plus effrayant, c’est que les entreprises ouvrent un melon de plusieurs milliards de dollars et nous savons déjà ce qui se passe lorsque de l’argent est en jeu. »
Pourtant, cette lettre est également considérée avec suspicion par certains experts. Emily M. Benderprofesseur de linguistique computationnelle à l’Université de Washington, a indiqué que, malgré l’accord avec certaines critiques, le libellé de cette déclaration « aide » à exagérer les capacités de l’IA, contribuant au battage médiatique de géants comme Microsoft ou Google.