Les scientifiques ont décodé des images visuelles du cerveau d’un chien, offrant un premier aperçu de la façon dont l’esprit canin reconstruit ce qu’il voit. La Journal des expériences visualisées a publié les recherches effectuées à l’Université Emory.
Les résultats suggèrent que les chiens sont plus sensibles aux actions dans leur environnement plutôt qu’à qui ou quoi fait l’action.
Les chercheurs ont enregistré les données neurales de l’IRMf pour deux chiens éveillés et non retenus alors qu’ils regardaient des vidéos en trois sessions de 30 minutes, pour un total de 90 minutes. Ils ont ensuite utilisé un algorithme d’apprentissage automatique pour analyser les modèles dans les données neuronales.
« Nous avons montré que nous pouvons surveiller l’activité dans le cerveau d’un chien pendant qu’il regarde une vidéo et, au moins dans une certaine mesure, reconstruire ce qu’il regarde », explique Gregory Berns, professeur de psychologie à Emory et auteur correspondant de l’article. . « Le fait que nous soyons capables de faire cela est remarquable. »
Le projet s’est inspiré des avancées récentes de l’apprentissage automatique et de l’IRMf pour décoder les stimuli visuels du cerveau humain, fournissant de nouvelles informations sur la nature de la perception. Au-delà des humains, la technique n’a été appliquée qu’à une poignée d’autres espèces, y compris certains primates.
« Bien que notre travail soit basé sur seulement deux chiens, il offre une preuve de concept que ces méthodes fonctionnent sur les chiens », déclare Erin Phillips, premier auteur de l’article, qui a effectué le travail en tant que spécialiste de la recherche au Canine Cognitive Neuroscience Lab de Berns. « J’espère que cet article aidera à ouvrir la voie à d’autres chercheurs pour appliquer ces méthodes sur les chiens, ainsi que sur d’autres espèces, afin que nous puissions obtenir plus de données et une meilleure compréhension du fonctionnement de l’esprit de différents animaux. »
Phillips, originaire d’Écosse, est venu à Emory en tant que Bobby Jones Scholar, un programme d’échange entre Emory et l’Université de St Andrews. Elle est actuellement étudiante diplômée en écologie et biologie évolutive à l’Université de Princeton.
Berns et ses collègues ont été les pionniers des techniques d’entraînement pour amener les chiens à entrer dans un scanner IRMf et à rester complètement immobiles et sans retenue pendant que leur activité neuronale est mesurée. Il y a dix ans, son équipe a publié les premières images cérébrales IRMf d’un chien complètement éveillé et non retenu. Cela a ouvert la porte à ce que Berns appelle The Dog Project, une série d’expériences explorant l’esprit des plus anciennes espèces domestiquées.
Au fil des ans, son laboratoire a publié des recherches sur la façon dont le cerveau canin traite la vision, les mots, les odeurs et les récompenses telles que recevoir des éloges ou de la nourriture.
Pendant ce temps, la technologie derrière les algorithmes informatiques d’apprentissage automatique ne cessait de s’améliorer. La technologie a permis aux scientifiques de décoder certains modèles d’activité cérébrale humaine. La technologie « lit dans les pensées » en détectant dans les modèles de données cérébrales les différents objets ou actions qu’un individu voit en regardant une vidéo.
« J’ai commencé à me demander : ‘Pouvons-nous appliquer des techniques similaires aux chiens ?’ », se souvient Berns.
Le premier défi consistait à proposer un contenu vidéo qu’un chien pourrait trouver suffisamment intéressant pour regarder pendant une période prolongée. L’équipe de recherche d’Emory a fixé un enregistreur vidéo à un cardan et à une perche à selfie qui leur a permis de filmer des images stables du point de vue d’un chien, à peu près à la taille d’un humain ou un peu plus bas.
Ils ont utilisé l’appareil pour créer une vidéo d’une demi-heure de scènes liées à la vie de la plupart des chiens. Les activités comprenaient des chiens caressés par des personnes et recevant des friandises de personnes. Des scènes avec des chiens les montraient également reniflant, jouant, mangeant ou marchant en laisse. Des scènes d’activité montraient des voitures, des vélos ou un scooter passant sur une route ; un chat marchant dans une maison; un cerf traversant un chemin; personnes assises ; les gens se serrent dans leurs bras ou s’embrassent ; des personnes offrant un os en caoutchouc ou une balle à la caméra ; et les gens qui mangent.
Les données vidéo ont été segmentées par des horodatages en divers classificateurs, y compris des classificateurs basés sur des objets (tels que chien, voiture, humain, chat) et des classificateurs basés sur des actions (tels que renifler, jouer ou manger).
Seuls deux des chiens qui avaient été entraînés pour des expériences dans une IRMf avaient la concentration et le tempérament nécessaires pour rester parfaitement immobiles et regarder la vidéo de 30 minutes sans interruption, dont trois séances pour un total de 90 minutes. Ces deux chiens « super star » étaient Daisy, une race mixte qui peut être en partie Boston terrier, et Bhubo, une race mixte qui peut être en partie boxeur.
« Ils n’avaient même pas besoin de friandises », explique Phillips, qui a surveillé les animaux pendant les séances d’IRMf et a regardé leurs yeux suivre la vidéo. « C’était amusant parce que c’est une science sérieuse, et beaucoup de temps et d’efforts y ont été consacrés, mais cela se résumait à ces chiens qui regardaient des vidéos d’autres chiens et d’humains agissant de manière un peu idiote. »
Deux humains ont également subi la même expérience, regardant la même vidéo de 30 minutes en trois sessions distinctes, alors qu’ils étaient allongés dans une IRMf.
Les données cérébrales pourraient être mappées sur les classificateurs vidéo à l’aide d’horodatages.
Un algorithme d’apprentissage automatique, un réseau de neurones connu sous le nom d’Ivis, a été appliqué aux données. Un réseau de neurones est une méthode d’apprentissage automatique en demandant à un ordinateur d’analyser des exemples de formation. Dans ce cas, le réseau neuronal a été formé pour classer le contenu des données cérébrales.
Les résultats pour les deux sujets humains ont révélé que le modèle développé à l’aide du réseau neuronal montrait une précision de 99 % dans la cartographie des données cérébrales sur les classificateurs basés sur les objets et sur les actions.
Dans le cas du décodage du contenu vidéo des chiens, le modèle n’a pas fonctionné pour les classificateurs d’objets. Cependant, il était précis de 75% à 88% lors du décodage des classifications d’action pour les chiens.
Les résultats suggèrent des différences majeures dans le fonctionnement du cerveau des humains et des chiens.
« Nous, les humains, sommes très orientés objet », déclare Berns. « Il y a 10 fois plus de noms que de verbes en anglais parce que nous avons une obsession particulière pour nommer des objets. Les chiens semblent moins préoccupés par qui ou ce qu’ils voient et plus préoccupés par l’action elle-même. »
Les chiens et les humains ont également des différences majeures dans leurs systèmes visuels, note Berns. Les chiens ne voient que dans les tons de bleu et de jaune, mais ont une densité légèrement plus élevée de récepteurs visuels conçus pour détecter les mouvements.
« Il est parfaitement logique que le cerveau des chiens soit avant tout très sensible aux actions », dit-il. « Les animaux doivent être très préoccupés par ce qui se passe dans leur environnement pour éviter d’être mangés ou pour surveiller les animaux qu’ils pourraient vouloir chasser. L’action et le mouvement sont primordiaux. »
Pour Philips, comprendre comment différents animaux perçoivent le monde est important pour ses recherches de terrain actuelles sur l’impact potentiel de la réintroduction de prédateurs au Mozambique sur les écosystèmes. « Historiquement, il n’y a pas eu beaucoup de chevauchement entre l’informatique et l’écologie », dit-elle. « Mais l’apprentissage automatique est un domaine en pleine croissance qui commence à trouver des applications plus larges, y compris en écologie. »
Parmi les autres auteurs de l’article figurent Daniel Dilks, professeur agrégé de psychologie à Emory, et Kirsten Gillette, qui a travaillé sur le projet en tant que majeure en neurosciences et biologie comportementale de premier cycle à Emory. Gilette a depuis obtenu son diplôme et suit maintenant un programme post-baccalauréat à l’Université de Caroline du Nord.
Daisy appartient à Rebecca Beasley et Bhubo appartient à Ashwin Sakhardande.
Erin M. Phillips et al, À travers les yeux d’un chien : Décodage IRMf de vidéos naturalistes du cortex du chien, Journal des expériences visualisées (2022). DOI : 10.3791/64442