Gebru, aujourd’hui à la tête de l’association à but non lucratif Distributed AI Research, espère qu’à l’avenir, les gens se concentreront sur le bien-être humain et non sur les droits des robots. D’autres éthiciens de l’IA ont dit qu’ils ne le feraient plus discuter de l’IA consciente ou super-intelligente du tout.
« Il y a un assez grand écart entre le récit actuel de l’IA et ce qu’elle peut réellement faire », déclare Giada Pistilli, éthicienne chez Hugging Face, une startup qui se concentre sur les modèles de langage. « Ce récit provoque simultanément la peur, l’émerveillement et l’excitation, mais il s’appuie principalement sur des mensonges pour vendre des produits et exploiter le battage médiatique. »
La conséquence de spéculer sur l’IA sensible, dit-elle, est une volonté accrue de faire des affirmations basées sur des impressions subjectives plutôt que sur la rigueur et les preuves scientifiques. Cela détourne l’attention des «innombrables problèmes d’éthique et de justice sociale» que soulèvent les systèmes d’IA. Alors que chaque chercheur est libre de faire des recherches sur ce qu’il veut, dit-elle, « j’ai juste peur que se concentrer sur ce sujet nous fasse oublier ce qui se passe pendant que nous regardons la lune. »
Ce que Lemoire a vécu est un exemple de ce que l’auteur et futuriste David Brin a surnommé la « crise de l’empathie des robots ». Lors d’une conférence sur l’IA à San Francisco en 2017, Brin a prédit que dans trois à cinq ans, les gens prétendraient que les systèmes d’IA étaient sensibles et insisteraient sur le fait qu’ils avaient des droits. À l’époque, il pensait que ces appels viendraient d’un agent virtuel qui prend l’apparence d’une femme ou d’un enfant pour maximiser la réponse empathique humaine, et non « d’un type chez Google », dit-il.
L’incident de LaMDA fait partie d’une période de transition, dit Brin, au cours de laquelle « nous deviendrons de plus en plus confus quant à la frontière entre réalité et science-fiction ».
Brin a basé sa prédiction pour 2017 sur les progrès des modèles de langage. Il s’attend à ce que la tendance conduise à la tricherie. Si les gens étaient pour un chatbot aussi simple qu’ELIZA il y a des décennies, à quel point serait-il difficile de convaincre des millions de personnes qu’une personne usurpée mérite une protection ou de l’argent ?
« Il y a beaucoup d’huile de serpent là-bas, et mélangé à tout le battage médiatique, il y a de réels progrès », déclare Brin. « L’analyse de ce ragoût est l’un des défis auxquels nous sommes confrontés. »
Et aussi empathique que puisse paraître LaMDA, les personnes étonnées par les grands modèles linguistiques devraient considérer le cas de la piqûre du cheeseburger, déclare Yejin Choi, informaticien à l’Université de Washington. Une émission de nouvelles locales aux États-Unis concernait un adolescent de Toledo, Ohio, qui avait poignardé sa mère au bras lors d’une dispute à propos d’un cheeseburger. Mais le titre « Cheeseburger Stebbing » est vague. Savoir ce qui s’est passé demande du bon sens. Les tentatives pour que le modèle GPT-3 d’OpenAI génère du texte avec « Breaking news: Cheeseburger stabbing » produit des mots sur un homme poignardé avec un cheeseburger dans une dispute sur le ketchup et un homme arrêté a été retrouvé après avoir poignardé un cheeseburger.
Les modèles de langage font parfois des erreurs car le décodage du langage humain peut nécessiter plusieurs formes de bon sens. Pour documenter ce dont les grands modèles de langage sont capables et où ils échouent, au cours du mois dernier, plus de 400 chercheurs de 130 institutions ont contribué à une collection de plus de 200 tâches connues sous le nom de BIG-Bench, ou Beyond the Imitation Game is. BIG-Bench comprend des tests de modèles de langage traditionnels tels que la compréhension en lecture, mais aussi la pensée logique et le bon sens.
Des chercheurs du projet MOSAIC de l’Allen Institute for AI, qui documente les capacités de réflexion raisonnables des modèles d’IA, ont contribué à une tâche appelée Social-IQa. Ils ont demandé à des modèles de langage – sans LaMDA – des réponses à des questions qui nécessitent une intelligence sociale, telles que « Jordan voulait dire un secret à Tracy, alors Jordan s’est appuyé sur Tracy. Pourquoi Jordan a-t-il fait ça ? » L’équipe a découvert que les grands modèles de langage étaient 20 à 30 % moins précis que les humains.
Le poste LaMDA et le piège Sentient AI sont apparus en premier sur Germanic News.