Une technologie de suivi révolutionnaire qui a révélé de nouvelles informations sur la façon dont les fourmis du désert naviguent dans leurs mondes complexes pourrait inspirer la prochaine génération de robots intelligents et efficaces.
Une collaboration de recherche internationale impliquant l’Université de Sheffield a développé une nouvelle technologie de suivi qui utilise la vision par ordinateur – un domaine de l’informatique qui programme les ordinateurs pour interpréter et comprendre des images et des vidéos – pour suivre les fourmis du désert individuelles tout au long de leur vie de recherche de nourriture. L’outil documente le parcours d’une fourmi depuis le moment où elle quitte son nid jusqu’à ce qu’elle trouve un site de nourriture et retourne dans sa colonie.
Leur nouvel ensemble de données a révélé que les fourmis apprennent incroyablement rapidement, mémorisant leur chemin de retour après un seul voyage réussi. Mais curieusement, leurs routes vers l’extérieur ont évolué au fil du temps, indiquant différentes stratégies d’exploration par rapport à l’exploitation. Les données de haute précision ont également révélé un mouvement oscillatoire sous-jacent invisible à l’œil humain, ce qui peut expliquer comment les fourmis génèrent des schémas de recherche complexes adaptés aux conditions actuelles.
Comme le nouveau logiciel fonctionne sur tous les types d’animaux et utilise des vidéos capturées à l’aide de caméras standard, il est déjà adopté par de nombreux groupes de recherche internationaux et convient parfaitement aux projets de science citoyenne. Les données de haute précision recueillies sont cruciales pour comprendre comment le cerveau peut guider les animaux dans leur monde complexe, ce qui pourrait inspirer une nouvelle génération de robots bioinspirés.
La nouvelle technologie et l’ensemble de données – produits par le Dr Michael Mangan, maître de conférences en apprentissage automatique et robotique au département d’informatique de l’université avec Lars Haalck et Benjamin Risse de l’université de Münster, Antoine Wystrach et Leo Clement du Center for Integrative La biologie de Toulouse et de Barabara Webb de l’Université d’Edimbourg est démontrée dans une nouvelle étude publiée dans la revue Science Advances.
L’étude décrit comment CATER (Combined Animal Tracking & Environment Reconstruction) utilise l’intelligence artificielle et la vision par ordinateur pour suivre la position d’un insecte dans une vidéo capturée à l’aide de caméras standard. Le système peut même détecter de minuscules objets difficiles à voir à l’œil nu, et est robuste à l’encombrement de fond, aux obstructions et aux ombres, ce qui lui permet de fonctionner dans l’habitat naturel de l’animal là où d’autres systèmes échouent.
Le Dr Michael Mangan, maître de conférences en apprentissage automatique et en robotique à l’Université de Sheffield, a déclaré : « Nous avons capturé ces données lors d’une excursion d’été sur le terrain, mais il a fallu 10 ans pour construire un système capable d’extraire les données, afin que vous puissiez dire qu’il a été une décennie dans la fabrication.
« J’ai toujours été fasciné par la façon dont ces insectes peuvent naviguer sur de longues distances – jusqu’à 1 km – dans des paysages aussi inhospitaliers où les températures dépassent 50 degrés Celsius.
« Jusqu’à présent, les fourmis du désert ont été suivies à la main à l’aide d’un stylo et de papier, ce qui implique de créer une grille sur le sol avec de la ficelle et des piquets et de surveiller leur comportement dans la grille. Une autre méthode utilisée pour contourner ce problème consiste à utiliser un différentiel global. Système de positionnement (GPS) – mais l’équipement est coûteux et peu précis.
« L’absence d’un moyen peu coûteux et robuste de capturer les trajectoires précises des insectes sur le terrain a entraîné des lacunes dans nos connaissances sur le comportement des fourmis du désert. Plus précisément sur la façon dont elles apprennent les itinéraires visuels, la rapidité avec laquelle elles le font et les stratégies qu’elles emploient. cela pourrait simplifier la tâche. »
La nouvelle méthode de suivi visuel de CATER relève ces défis en capturant des séquences haute résolution de fourmis dans leur environnement naturel et en utilisant la technologie d’imagerie pour identifier les fourmis individuelles en se basant uniquement sur le mouvement. Une nouvelle technique de mosaïquage d’images est ensuite utilisée pour reconstruire ou assembler le paysage à partir de l’imagerie haute résolution. Cette nouvelle approche comble le fossé entre les études sur le terrain et en laboratoire, fournissant des informations uniques sur le comportement de navigation des fourmis. Ces données seront cruciales pour révéler comment les animaux avec un cerveau plus petit qu’une tête d’épingle naviguent si efficacement dans leurs environnements complexes.
Ces connaissances sont déjà transformées en produits commerciaux par Opteran, une société dérivée pionnière de l’Université de Sheffield, qui procède à l’ingénierie inverse des cerveaux d’insectes pour produire une autonomie très robuste à l’aide de capteurs et de calculs à faible coût.
Le Dr Mangan a déclaré : « Les fourmis du désert sont l’inspiration idéale pour les robots de nouvelle génération : elles naviguent sur de longues distances, dans des environnements difficiles, et ne dépendent pas des traînées de phéromones comme les autres fourmis, ou du GPS et de la 5G comme les robots actuels.
« Nous espérons que notre outil nous permettra de construire une image plus complète de la façon dont les insectes apprennent à piloter à travers leurs habitats, apportant de nouvelles connaissances scientifiques et informant les ingénieurs sur la façon dont ils pourraient construire des systèmes artificiels aux capacités similaires. »