Apprendre à marcher signifie apprendre de ses erreurs et essayer à nouveau. Chaque nouvelle étape introduit un déséquilibre de poids et la possibilité que le sol en dessous soit d’une texture ou d’une densité différente de celle d’avant. Un tout-petit qui apprend à marcher debout sur le pont basculant d’un navire peut avoir des problèmes si le sol sous ses pieds ne bouge pas comme prévu sur la terre ferme.
Pour la DARPA, le ciel bleu de l’armée projette des ailes, apprendre aux robots à marcher sur de nouveaux terrains signifie adopter l’apprentissage comme un tout-petit. Apprendre à marcher commence par beaucoup d’échecs, mais si les robots apprennent à s’adapter aux échecs, ils pourraient gérer de tout nouveaux environnements basés uniquement sur l’intuition.
C’est le domaine de Machine Common Sense, une initiative de la DARPA visant à développer un type d’IA qui permettra aux robots d’imiter, d’abord en simulation, puis dans le monde réel, la capacité d’un tout-petit à comprendre, interagir et interagir avec le monde pour passer à travers eux. Cela comprend des efforts pour traiter le langage, manipuler des objets et naviguer sur un terrain inconnu.
« L’inspiration pour le programme était que si l’IA a engendré de nombreux systèmes très impressionnants qui ont démontré des performances de niveau expert sur de nombreuses tâches, les systèmes d’IA en général sont fragiles et ont tendance à manquer du bon sens que tout le monde dans la rue aurait », il dit Howard Shrobe, directeur de DARPA pour Machine Common Sense.
« Mais le but ultime est que les systèmes informatiques et les systèmes robotiques puissent être formés de la même manière que nous formons des soldats dans des domaines techniques qu’ils travaillent dans l’armée », explique Shrobe.
Lisez simplement les instructions
Shrobe imagine à quel point il serait utile que les machines puissent apprendre aussi bien que les humains. « Plus tard, vous pourriez imaginer un technicien robotique lisant le manuel d’instructions sur la façon de réparer un moteur sur un véhicule et être capable de prendre cette description de langue et peut-être quelques vidéos, puis de l’exécuter simplement parce qu’il est parfaitement capable de comprendre comment exécuter les mouvements qu’il connaît déjà et les composer pour faire les choses implicites dans les instructions », ajoute Shrobe.
Pour que cela fonctionne, une IA doit non seulement prendre un manuel et être capable de répéter les informations qu’il contient, mais l’IA devrait reconnaître toutes les connaissances intégrales qui ne sont pas explicitement énoncées dans les instructions mais qui sont essentielles au processus est de toute façon.
[Related: Google taught a robot dog new tricks by having it mimic the real thing]
« Vous pouvez imaginer une recette d’œufs brouillés, et cela pourrait commencer par dire : ‘Mettez deux œufs dans un bol.’ Et même ceux d’entre nous qui étaient de très mauvais cuisiniers comprennent que cela ne signifiait pas littéralement mettre deux œufs dans un bol. Cela signifiait casser les œufs et les ajouter dans le bol. Et cela ne vous indiquait pas où vous étiez susceptible de trouver des œufs ou comment les casser », explique Shrobe.
Comme d’autres manuels d’instructions, les livres de cuisine supposent qu’une personne qui ouvre le livre connaît déjà ce type d’informations implicites, permettant au lecteur de se concentrer sur la tâche à accomplir. Si des machines militaires peuvent être construites avec une IA capable de distinguer ce bon sens de la lecture, alors l’IA peut effectuer des tâches spécialisées sans avoir à apprendre au préalable comment apprendre toutes les parties de la tâche.
Les machines peuvent-elles apprendre la permanence des objets ?
Développer le bon sens pour les machines, c’est repenser la façon dont les systèmes artificiels perçoivent, intègrent et s’adaptent aux nouvelles connaissances. Une partie de cela consiste à savoir comment les corps fonctionnent et existent dans l’espace, comme marcher sur un terrain nouveau et accidenté. Une autre partie de cela consiste à enseigner la permanence d’un objet à un programme de reconnaissance d’image afin que lorsqu’une caméra voit une balle rouler derrière un mur, elle ne catalogue pas la balle comme un nouvel objet lorsqu’elle apparaît de l’autre côté. C’est le genre de connaissances qui vient intuitivement aux personnes en bas âge, bien que souvent par essais et erreurs.
Pour les machines qui apprennent des tâches physiques, ces connaissances ne peuvent pas être acquises en lisant des manuels, mais en exécutant et en adaptant des programmes capables de faire des changements inattendus et de les convertir en connaissances. Un exemple est un robot à quatre pattes qui apprend à s’équilibrer même lorsque des poids sont lancés dans son dos.
Le bon sens de la machine nécessaire pour naviguer à la fois dans les manuels et les obstacles est basé sur le même processus d’apprentissage automatique et d’apprentissage par renforcement profond. Dans des environnements simulés, l’IA comprend les paramètres de la tâche qui lui est assignée et développe des approches pour savoir comment procéder avec de nouvelles informations. Cela signifie tirer parti de l’expérience accumulée et essayer une stratégie qui se rapproche de la situation actuelle. Et, surtout, apprendre pendant que l’IA essaie d’accomplir la tâche dans la vraie vie.
Dans la simulation, un robot pourrait marcher sur une colline, puis trébucher sur des parpaings de l’autre côté. Dans la vraie vie, ce robot peut gravir une colline puis tomber sur une bûche tombée. Grâce aux trébuchements dans la simulation, le robot a pu naviguer dans une situation similaire sans trébucher.
[Related: A new tail accessory propels this robot dog across streams]
En apprenant ce qui ne fonctionne pas, et plus important encore en apprenant et en répétant ce qui fonctionne, l’IA que la DARPA travaille à développer dirigera une machine à travers des tâches familières dans des environnements inconnus. Alors que Shrobe parle de nourrissons, c’est aussi le genre d’adaptation globale au monde que nous attendons des adultes, en particulier des jeunes adultes qui s’enrôlent dans l’armée et doivent ensuite maîtriser les missions qu’ils reçoivent dans l’éducation dans des pays du monde entier qu’ils n’ont peut-être pas même entendu parler avant d’arriver.
Alors que le technicien robotique entièrement fonctionnel envisagé par Shrobe est encore loin, les équipes travaillent sur le développement et l’évaluation des étapes des composants dans le cadre du programme Machine Common Sense de la DARPA. Cela signifie non seulement répéter le texte dans un manuel ou prouver qu’un robot peut marcher sur un terrain accidenté, mais aussi tester si l’IA peut produire des phrases suivantes cohérentes dans un test de langue ou si le robot peut marcher sur un terrain accidenté si soudainement peut la course devient glissante avec de l’huile.
Un exemple clair de tout cela est la formation d’une IA dans la simulation pour passer le même type de tests afin que les enfants puissent voir s’ils ont développé l’idée de permanence d’objet mentionnée ci-dessus.
« Vous montrez un objet qui roule derrière un écran et qui ne ressort jamais. Et vous pouvez maintenant demander au système d’IA, pouvez-vous trouver l’objet ? Et s’il navigue dans l’environnement simulé pour aller derrière l’écran, alors vous pouvez supposer qu’il a une permanence d’objet car il s’attend à ce que la chose roule derrière l’écran et y reste, au lieu d’aller derrière l’écran et cesse d’exister », explique Strauch.
Regardez l’IA guider un robot à quatre pattes sur le terrain ci-dessous :
Le poste DARPA veut que les robots apprennent aussi naturellement que les enfants sont apparus en premier sur Germanic News.