La façon dont nous parlons aujourd’hui n’est pas celle dont les gens parlaient il y a des milliers, voire des centaines d’années. Le vers de William Shakespeare, « soyez vrai envers vous-même », est aujourd’hui « soyez vous-même ». Les nouveaux locuteurs, idées et technologies semblent tous jouer un rôle dans l’évolution de la façon dont nous communiquons les uns avec les autres, mais les linguistes ne sont pas toujours d’accord sur comment et pourquoi les langues changent. Maintenant, une nouvelle étude sur la langue des signes américaine ajoute un soutien à une raison potentielle : parfois, nous voulons simplement nous faciliter la vie.
La chercheuse en études sourdes Naomi Caselli et une équipe de chercheurs ont découvert que les signes de la langue des signes américaine (ASL) qui sont difficiles à percevoir – ceux qui sont rares ou qui ont des formes de main inhabituelles – sont rapprochés du visage du signataire, où les gens regardent souvent pendant la perception des signes. En revanche, les plus courants, et ceux avec des formes de mains plus routinières, sont plus éloignés du visage, dans la vision périphérique du percepteur. Caselli, professeur adjoint au Wheelock College of Education & Human Development de l’Université de Boston (BU), affirme que les résultats suggèrent que l’ASL a évolué pour être plus facile à reconnaître pour les gens. Les résultats ont été publiés dans Cognition.
« Chaque fois que nous utilisons un mot, il change un peu », déclare Caselli, qui est également codirecteur de l’IA and Education Initiative de l’Institut Rafik B. Hariri pour l’informatique et la science et l’ingénierie computationnelles. « Sur de longues périodes, les mots avec des formes de mains inhabituelles ont évolué pour être produits plus près du visage et, par conséquent, sont plus faciles à voir et à reconnaître pour le percepteur. »
Bien que l’étude de l’évolution de la langue soit complexe, dit Caselli, « vous pouvez faire des prédictions sur la façon dont les langues pourraient changer au fil du temps et tester ces prédictions avec un instantané actuel de la langue ».
Avec des chercheurs de l’Université de Syracuse et du Rochester Institute of Technology, elle s’est penchée sur l’évolution de l’ASL à l’aide d’un outil d’intelligence artificielle (IA) qui a analysé des vidéos de plus de 2 500 signes d’ASL-LEX, la plus grande base de données ASL interactive au monde. Caselli dit qu’ils ont commencé par utiliser l’algorithme d’IA pour estimer la position du corps et des membres du signataire.
« Nous alimentons la vidéo dans un algorithme d’apprentissage automatique qui utilise la vision par ordinateur pour déterminer où se trouvent les points clés du corps », explique Caselli. « Nous pouvons alors déterminer où sont les mains par rapport au visage dans chaque signe. » Les chercheurs associent ensuite ces données aux données d’ASL-LEX, créées avec l’aide du laboratoire d’innovation logicielle et d’application de l’Institut Hariri, sur la fréquence d’utilisation des signes et des formes de mains. Ils ont constaté, par exemple, que de nombreux signes qui utilisent des formes de main courantes, comme le signe pour les enfants – qui utilise une main plate et ouverte – sont produits plus loin du visage que les signes qui utilisent des formes de main rares, comme celui de la lumière.
Ce projet fait partie d’un ensemble de travaux nouveaux et croissants reliant l’informatique et la langue des signes à la BU.
« L’équipe à l’origine de ces projets est dynamique, avec des chercheurs signataires travaillant en collaboration avec des scientifiques de la vision par ordinateur », explique Lauren Berger, scientifique sourde et postdoctorale à la BU qui travaille sur des approches informatiques de la recherche en langue des signes. « Nos perspectives variées, ancrées par la supervision de chercheurs sensibles à la culture sourde, aident à prévenir l’exploitation culturelle et linguistique simplement pour faire avancer la pointe de la technologie et de la science. »
Comprendre comment fonctionnent les langues des signes peut aider à améliorer l’éducation des sourds, dit Caselli, qui espère que les dernières découvertes attireront également l’attention sur la diversité des langues humaines et les capacités extraordinaires de l’esprit humain.
« Si tout ce que nous étudions, ce sont les langues parlées, il est difficile de distinguer les choses qui concernent la langue en général des choses qui sont particulières à la modalité auditive-orale. Les langues des signes offrent une excellente occasion d’apprendre comment fonctionnent toutes les langues, » elle dit. « Maintenant, avec l’IA, nous pouvons manipuler de grandes quantités de vidéos en langue des signes et tester ces questions de manière empirique. »
Naomi Caselli et al, Optimisation perceptive du langage : Preuve de la langue des signes américaine, Cognition (2022). DOI : 10.1016/j.cognition.2022.105040