Un modèle d’apprentissage automatique met en lumière la façon dont le cerveau reconnaît les sons de communication

La critique geante de licone de la SHL sur la

Dans un article publié aujourd’hui dans Biologie des communicationsdes neuroscientifiques auditifs de l’Université de Pittsburgh décrivent un modèle d’apprentissage automatique qui aide à expliquer comment le cerveau reconnaît la signification des sons de communication, tels que les cris d’animaux ou les mots parlés.

L’algorithme décrit dans l’étude modélise la manière dont les animaux sociaux, y compris les singes marmousets et les cobayes, utilisent les réseaux de traitement du son dans leur cerveau pour distinguer les catégories de sons, telles que les appels à l’accouplement, la nourriture ou le danger, et agissent en conséquence.

L’étude est une étape importante vers la compréhension des subtilités et des complexités du traitement neuronal qui sous-tend la reconnaissance sonore. Les enseignements tirés de ce travail ouvrent la voie à la compréhension, et éventuellement au traitement, des troubles qui affectent la reconnaissance de la parole, et à l’amélioration des aides auditives.

« Plus ou moins toutes les personnes que nous connaissons perdront une partie de leur audition à un moment donné de leur vie, soit en raison du vieillissement ou de l’exposition au bruit. Il est important de comprendre la biologie de la reconnaissance des sons et de trouver des moyens de l’améliorer », a déclaré l’auteur principal. et Pitt professeur adjoint de neurobiologie Srivatsun Sadagopan, Ph.D. « Mais le processus de communication vocale est fascinant en soi. La façon dont nos cerveaux interagissent les uns avec les autres et peut prendre des idées et les transmettre par le son est tout simplement magique. »

Les humains et les animaux rencontrent chaque jour une étonnante diversité de sons, de la cacophonie de la jungle au bourdonnement d’un restaurant bondé. Quelle que soit la pollution sonore du monde qui nous entoure, les humains et les autres animaux sont capables de communiquer et de se comprendre, y compris la hauteur de leur voix ou leur accent.

Lorsque nous entendons le mot « bonjour », par exemple, nous reconnaissons sa signification, qu’il soit prononcé avec un accent américain ou britannique, que l’orateur soit une femme ou un homme, ou que nous soyons dans une pièce calme ou occupée. intersection.

L’équipe a commencé avec l’intuition que la façon dont le cerveau humain reconnaît et capte la signification des sons de communication peut être similaire à la façon dont il reconnaît les visages par rapport à d’autres objets. Les visages sont très divers mais ont des caractéristiques communes.

Au lieu de faire correspondre chaque visage que nous rencontrons à un visage « modèle » parfait, notre cerveau capte des caractéristiques utiles, telles que les yeux, le nez et la bouche, et leurs positions relatives, et crée une carte mentale de ces petites caractéristiques qui définissent un affronter.

Dans une série d’études, l’équipe a montré que les sons de communication peuvent également être constitués de si petites caractéristiques. Les chercheurs ont d’abord construit un modèle d’apprentissage automatique du traitement du son pour reconnaître les différents sons émis par les animaux sociaux.

Pour tester si les réponses cérébrales correspondaient au modèle, ils ont enregistré l’activité cérébrale de cobayes écoutant les sons de communication de leurs parents. Les neurones des régions du cerveau responsables du traitement des sons se sont illuminés par une vague d’activité électrique lorsqu’ils ont entendu un bruit présentant des caractéristiques présentes dans des types spécifiques de ces sons, similaires au modèle d’apprentissage automatique.

Ils ont ensuite voulu vérifier les performances du modèle par rapport au comportement réel des animaux.

Les cochons d’Inde ont été placés dans un enclos et exposés à différentes catégories de sons – des grincements et des grognements qui sont classés comme des signaux sonores distincts. Les chercheurs ont ensuite entraîné les cobayes à marcher dans différents coins de l’enceinte et à recevoir des récompenses en fruits en fonction de la catégorie de son jouée.

Ensuite, ils ont rendu les tâches plus difficiles : pour imiter la façon dont les humains reconnaissent le sens des mots prononcés par des personnes ayant des accents différents, les chercheurs ont lancé des appels de cobayes via un logiciel de modification du son, les accélérant ou les ralentissant, augmentant ou diminuant leur tonalité. , ou en ajoutant du bruit et des échos.

Non seulement les animaux étaient capables d’accomplir la tâche aussi régulièrement que si les appels qu’ils entendaient n’avaient pas été modifiés, mais ils continuaient à bien performer malgré les échos artificiels ou le bruit. Mieux encore, le modèle d’apprentissage automatique décrivait parfaitement leur comportement (et l’activation sous-jacente des neurones de traitement du son dans le cerveau).

Dans une prochaine étape, les chercheurs traduisent la précision du modèle des animaux en parole humaine.

« D’un point de vue technique, il existe de bien meilleurs modèles de reconnaissance vocale. Ce qui est unique dans notre modèle, c’est que nous avons une correspondance étroite avec le comportement et l’activité cérébrale, ce qui nous donne un meilleur aperçu de la biologie. À l’avenir, ces informations pourront être utilisé pour aider les personnes atteintes de troubles du développement neurologique ou pour aider à concevoir de meilleures aides auditives », a déclaré l’auteur principal Satyabrata Parida, Ph.D., stagiaire postdoctoral au département de neurobiologie de Pitt.

« Beaucoup de gens sont aux prises avec des conditions qui les empêchent de reconnaître la parole », a déclaré Manaswini Kar, étudiant au laboratoire de Sadagopan. « Comprendre comment un cerveau neurotypique reconnaît les mots et donne un sens au monde auditif qui l’entoure permettra de comprendre et d’aider ceux qui luttent. »

Plus d’information:
Srivatsun Sadagopan et al, Les mécanismes adaptatifs facilitent des performances robustes dans le bruit et la réverbération dans un modèle de catégorisation auditive, Biologie des communications (2023). DOI : 10.1038/s42003-023-04816-z

Fourni par l’Université de Pittsburgh

ph-tech