Une paire de bioingénieurs de l’UCLA et un ancien chercheur postdoctoral ont développé une nouvelle classe de systèmes de caméras 3D bioniques qui peuvent imiter la vision multivue des mouches et la détection sonar naturelle des chauves-souris, résultant en une imagerie multidimensionnelle avec une plage de profondeur extraordinaire qui peut également balayer à travers les angles morts.
Propulsée par le traitement informatique de l’image, la caméra peut déchiffrer la taille et la forme des objets cachés dans les coins ou derrière d’autres éléments. La technologie pourrait être intégrée dans des véhicules autonomes ou des outils d’imagerie médicale dotés de capacités de détection bien au-delà de ce qui est considéré comme l’état de l’art aujourd’hui. Cette recherche a été publiée dans Communication Nature.
Dans l’obscurité, les chauves-souris peuvent visualiser une image dynamique de leur environnement en utilisant une forme d’écholocation, ou sonar. Leurs grincements à haute fréquence rebondissent sur leur environnement et sont captés par leurs oreilles. Les minuscules différences entre le temps nécessaire à l’écho pour atteindre les animaux nocturnes et l’intensité du son leur indiquent en temps réel où se trouvent les choses, ce qui les gêne et la proximité de proies potentielles.
De nombreux insectes ont des yeux composés de forme géométrique, dans lesquels chaque « œil » est composé de centaines à des dizaines de milliers d’unités individuelles pour la vue, ce qui permet de voir la même chose à partir de plusieurs lignes de visée. Par exemple, les yeux composés bulbeux des mouches leur donnent une vue à près de 360 degrés même si leurs yeux ont une distance focale fixe, ce qui les empêche de voir quoi que ce soit de loin, comme une tapette à mouches tenue en l’air.
Inspirée par ces deux phénomènes naturels que l’on trouve chez les mouches et les chauves-souris, l’équipe dirigée par l’UCLA a entrepris de concevoir un système de caméra 3D hautes performances doté de capacités avancées qui tirent parti de ces avantages, mais remédient également aux lacunes de la nature.
« Bien que l’idée elle-même ait été essayée, voir à travers une gamme de distances et autour des occlusions a été un obstacle majeur », a déclaré le responsable de l’étude Liang Gao, professeur agrégé de bio-ingénierie à la UCLA Samueli School of Engineering. « Pour résoudre ce problème, nous avons développé un nouveau cadre d’imagerie informatique, qui permet pour la première fois l’acquisition d’une vue panoramique large et profonde avec une optique simple et un petit réseau de capteurs. »
Appelé « Compact Light-field Photography » ou CLIP, le cadre permet au système de caméra de « voir » avec une plage de profondeur étendue et autour des objets. Lors d’expériences, les chercheurs ont démontré que leur système peut « voir » des objets cachés qui ne sont pas repérés par les caméras 3D conventionnelles.
Les chercheurs utilisent également un type de LiDAR, ou « Light Detection And Ranging », dans lequel un laser scanne les environs pour créer une carte 3D de la zone.
Le LiDAR conventionnel, sans CLIP, prendrait un instantané haute résolution de la scène mais manquerait des objets cachés, un peu comme le feraient nos yeux humains.
À l’aide de sept caméras LiDAR avec CLIP, le réseau prend une image de résolution inférieure de la scène, traite ce que les caméras individuelles voient, puis reconstruit la scène combinée en imagerie 3D haute résolution. Les chercheurs ont démontré que le système de caméra pouvait imager une scène 3D complexe avec plusieurs objets, tous placés à des distances différentes.
« Si vous couvrez un œil et que vous regardez votre ordinateur portable, et qu’il y a une tasse de café légèrement cachée derrière, vous ne la verrez peut-être pas, car l’ordinateur portable bloque la vue », a expliqué Gao, qui est également membre du Institut californien des nanosystèmes. « Mais si vous utilisez les deux yeux, vous remarquerez que vous aurez une meilleure vue de l’objet. C’est un peu ce qui se passe ici, mais imaginez maintenant voir la tasse avec l’œil composé d’un insecte. Maintenant, plusieurs vues de celle-ci sont possibles. »
Selon Gao, CLIP aide le réseau de caméras à donner un sens à ce qui est caché de la même manière. Combiné au LiDAR, le système est capable d’obtenir l’effet d’écholocation des chauves-souris afin que l’on puisse détecter un objet caché en fonction du temps nécessaire à la lumière pour rebondir vers la caméra.
Les co-auteurs principaux de la recherche publiée sont Yayao Ma, étudiant diplômé en bio-ingénierie de l’UCLA, membre du laboratoire d’optique intelligente de Gao, et Xiaohua Feng, un ancien postdoctorant de l’UCLA Samueli travaillant dans le laboratoire de Gao et maintenant chercheur au Centre de recherche pour Détection humanoïde au laboratoire Zhejiang à Hangzhou, Chine.
Xiaohua Feng et al, Photographie de champ lumineux compact vers une vision tridimensionnelle polyvalente, Communication Nature (2022). DOI : 10.1038/s41467-022-31087-9