« Peut-être les machines ne font pas quelque chose qui pourrait être décrit comme pensant, mais qu’y a-t-il de très différent de ce que fait l’homme ? C’est la question que s’est posée le mathématicien et informaticien Alan Mathison Turing dans les années 50. Aujourd’hui, avec l’avènement des chatbots et les complexités philosophiques qu’ils impliquent, son approche prend une pertinence particulière.
Dans l’article académique Computing Machinery and Intelligence, publié dans le magazine Mind en 1950, Turing décrit l’approche du test du même nom, le jeu d’imitation, savoir si les machines pensent. Pour ce faire, il a mis en place une procédure simple : mettre l’humain et la machine face à face dans une conversation.
Dans ce jeu, une personne joue une série de questions à deux entités cachées – une humaine et une computationnelle – reconnaître plus tard, sur la base des réponses, s’il communiquait avec un humain ou une machine. Les instructions originales de Turing stipulaient que, toutes les cinq minutes, l’interrogateur devait identifier les interlocuteurs cachés, en faisant la différence entre l’humain et la machine.
[¿Curar el cáncer con inteligencia artificial?]
Le célèbre test de Turing a été inversement modélisé pour concevoir Le CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) ou test de Turing inverse pour discerner entre l’homme ou le bot. Cependant, le juge, dans ce cas, n’est pas humain. Ces dernières années, il a été allégué à de nombreuses reprises que le test de Turing était dépassé. Cependant, tant la manière dont les questions sont formulées que l’influence du juge sont des facteurs essentiels pour déterminer si le test a été réussi.
« Il existe des raccourcis qu’un enquêteur peut utiliser pour détecter si son interlocuteur est un programme, en se concentrant sur son humanité plutôt que sur son intelligence », a déclaré Robert Clarisó Viladrosa, professeur d’études en informatique, multimédia et télécommunications à l’Universitat Oberta de Catalunya. (UOC), en un article paru en 2014.
« Des questions comme ‘en quelle année es-tu née ?’, ‘comment s’appelle ta mère ?’, ‘qu’as-tu mangé hier au dîner ?’ ou ‘combien de bras avez-vous?’ pourrait révéler la nature de notre interlocuteur”, a expliqué Clarisó. Pour cette raison, ajoute-t-il, « pour réussir un test de Turing, en plus d’être intelligent, un programme doit être capable d’assumer un rôle humain et mentir de manière cohérente et convaincante”. Et c’est quelque chose qui n’a pas encore été réalisé et, sinon, il suffit de taper ces questions dans ChatGPT (OpenAI).
L’explosion des chatbots
« Les chatbots ont créé l’impression fondée d’avoir réussi le test de Turing », déclare Roger Campione, professeur de philosophie juridique à l’Université d’Oviedo, dans des déclarations à ENCLAVE ODS. Cependant, prévient le professeur, « cette il faut le reconnaître sans qu’il suffise de dire maintenant que le test de Turing n’était pas l’outil adéquat”.
Pour traiter les requêtes, ce type d’agent IA utilise informations basées sur « l’intelligence humaine collective investie dans Internet »précise Campione. Et, comme il s’agit de systèmes automatisés, il serait même déraisonnable de considérer que les chatbots ont une sorte de conscience discursive. « Ils ne peuvent pas expliquer pourquoi ils font ce qu’ils décident de faire et un programmeur ne peut pas non plus reconstruire ce processus comme s’il s’agissait d’un raisonnement », ajoute le professeur.
[Campañas sostenibles basadas en inteligencia artificial]
Campione suggère que Il existe d’autres tests d’intelligence plus appropriés que celui proposé par Turing.. « Le défi de régimes winograd, par exemple, combine la compréhension avec le bon sens en utilisant un couple de phrases qui ne diffèrent entre elles que d’un ou deux mots et qui contiennent une ambiguïté », souligne-t-il. Avec cette méthode, le bon sens de la machine est évalué.
silence et créativité
Kevin Warwick et Huma Shah de l’Université de Coventry soutiennent qu’il y a une faiblesse dans le jeu de l’imitation. dans un article Prendre le cinquième amendement dans le jeu d’imitation de Turingpublié en 2016 dans le Journal of Experimental & Theoretical Artificial Intelligence, ces auteurs expliquent que si les entités cachées étaient silencieuses, il serait impossible de faire la différence entre la personne et la machine.
Ainsi, si une machine était silencieuse pendant le test, elle pourrait réussir le test et être considérée comme un une entité pensante. « Si une entité peut réussir le test en restant silencieuse, cela ne peut pas être considéré comme une indication qu’il s’agit d’une entité pensante ; Sinon, des objets tels que des pierres ou des rochers, qui ne pensent manifestement pas, pourraient passer le test. » C’est, selon les chercheurs, le « grave défaut du test de Turing ».
Un autre aspect qui montre les limites de l’IA concerne la créativité, un attribut cognitif de l’être humain. Cela a été observé par Mark Riedl, professeur agrégé à la School of Interactive Computing de Georgia Tech, et il s’est demandé si les machines pouvaient vraiment reproduire la pensée humaine.
[El sofisticado engaño de los ‘deepfakes’: así es cómo puedes identificarlos y protegerte de ellos]
« Il est important de souligner que Turing n’a jamais voulu que son test soit la référence officielle. pour déterminer si une machine ou un programme informatique peut vraiment penser comme un humain », a déclaré Riedl. à Newswise en 2014. Cette même année, le chercheur crée un test pour évaluer la créativité des machines : le test Lovelace 2.0 Créativité et Intelligence Artificielle.
Cet examen exige que la machine soit capable d’effectuer certaines activités pour démontrer son intelligence, comme écrire un poème. Il s’agit de la deuxième version du Lovelace original proposé par Bringsjord, Bello et Ferrucci en 2001. À l’origine, il fallait un agent artificiel pour produire une création de telle manière que le concepteur de l’agent ne pouvait pas expliquer comment il avait développé la création.
Pour Campion, la créativité artificielle pourrait être un oxymore. « Avant de donner un avis sur la capacité de l’IA à être créative, il convient de clarifier ce que nous entendons par créativité de la manière la plus compréhensible possible », souligne-t-il. Car « si par créativité on entendait peindre un tableau ou composer de la musique, l’affaire serait réglée ». Le professeur, dans ce cas, fait allusion aux images et aux œuvres d’art générées à partir de protocoles tels que Midjourney.
Et les émotions ?
Les étapes vers l’intégration des émotions dans les systèmes d’IA sont énormes. Il y a exactement un an. Une équipe de chercheurs du Japan Advanced Institute of Science and Technology publié une étude où ils ont affirmé avoir intégré des signaux biologiques avec des méthodes d’apprentissage automatique pour rendre possible l’IA « émotionnellement intelligente ».
Et, début février, une équipe de scientifiques de l’université Queen Mary de Londres, entend, à travers la mesure de variables telles que la fréquence respiratoire ou le rythme cardiaque par ondes radio ou Wi-Fidévelopper une intelligence artificielle capable de révéler les émotions humaines.
[Medirán con inteligencia artificial las emociones del traslado del Cristo de la Buena Muerte en Málaga]
« [La IA es] une de ces étiquettes qui expriment une sorte d’espoir utopique plutôt que la réalité actuelle », argumente l’auteur Steven Poole s’adressant à Bloomberg. Au lieu de cette terminologie, propose-t-il, la notion de gigantesques machines à plagiat devrait être utilisée pour désigner des outils perturbateurs comme ChatGPT ou Midjourney.
Ces avancées informatiques, comme le souligne Campione, nous placent dans une ère qu’il appelle, ironiquement, « humaniste”. Mais n’oubliez pas qu’« il ne faut pas se laisser emporter par des simulations futuristes qui déforment la réalité, mais il ne faut pas non plus tomber dans l’erreur de croire que derrière l’apparent il y a toujours une ultime réalité immuable”.
Suivez les sujets qui vous intéressent