02.04.2025 à 12:23
Julien Serres, Professeur des Universités en biorobotique, Aix-Marseille Université (AMU)
Nul besoin de connexion satellite pour que les abeilles et les fourmis retrouvent le chemin de leurs foyers. Leurs stratégies reposent sur des perceptions de l’environnement bien différentes de la nôtre, que décortiquent certains roboticiens… pour mieux les imiter.
Les insectes navigateurs possèdent de minuscules cervelles, de seulement un millimètre cube et pourtant… n’y aurait-il pas plus d’intelligence chez eux que ce que l’on imagine ?
Dans une certaine mesure, ces petits animaux sont plus performants en matière d’orientation spatiale que votre application mobile de navigation favorite et que les robots taxis américains… Ils n’ont pas besoin de se connecter à Internet pour retrouver leur foyer et consomment une quantité d’énergie absolument minuscule par rapport au supercalculateur dédié à la conduite autonome de Tesla.
Le biomimétisme consiste à puiser dans les multiples sources d’inspiration que nous offre la nature, qu’il s’agisse des formes — comme le design du nez du train Shinkansen 500, inspiré du bec du martin-pêcheur ; des matériaux — comme les écrans solaires anti-UV basés sur les algues rouges ; ou bien encore des synergies et des écosystèmes durables — comme la myrmécochorie qui utilise les fourmis pour accélérer la dispersion des graines et réparer plus vite les écosystèmes.
En effet, les solutions sélectionnées dans la nature se sont perfectionnées au long de l’évolution. Les yeux des insectes et leur traitement des images en sont un exemple frappant. Leur étude a donné naissance à de nouvelles caméras bio-inspirées dites « événementielles » ultrarapides. Les pixels de ses caméras sont lus et traités uniquement lorsqu’un changement de luminosité est détecté par un pixel et l’information est codée par des impulsions de très courte durée réduisant de facto la consommation énergétique et les temps de calcul. Ces petits animaux représentent alors une véritable banque de solutions pour les roboticiens, pour résoudre certains problèmes auxquels nous sommes confrontés.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La biorobotique a ainsi pour finalité de comprendre le comportement animal au moyen de robots mobiles imitant soit leur système perceptif, soit leur mode de locomotion, ou bien encore le couplage entre ces deux systèmes.
Les résultats obtenus sont parfois contre-intuitifs pour les roboticiens et les roboticiennes. La biorobotique propose d’explorer la navigation autonome « déconnectée » ou « en mode avion », exploitant uniquement la lumière réfléchie par l’environnent ou diffusée par le ciel comme le font les insectes navigateurs pour trouver leur cap de manière optique ou bien les oiseaux pour se géolocaliser visuellement. Nous espérons que ces recherches permettront aux véhicules intelligents d’atteindre le même niveau d’agilité et de résilience que les insectes ou oiseaux navigateurs, abeilles mellifères et fourmis du désert en tête.
De façon surprenante, les insectes navigateurs possèdent une acuité visuelle plutôt mauvaise. Ainsi, les fourmis navigatrices possèdent une vision 300 fois moins précise que celle des humains en termes d’« acuité fovéale », qui est la capacité à discerner un petit objet à grande distance. De leur côté, les abeilles mellifères possèdent une vision 100 fois moins précise que les humains, mais elles réalisent pourtant quotidiennement des trajets de plusieurs kilomètres par jour, jusqu’à 13 kilomètres de la ruche… alors qu’elles ne mesurent que treize millimètres.
Cette distance représente un million de fois leur longueur de corps. C’est comme si un humain voyageait 1 000 kilomètres et était capable de retrouver son foyer sans demander d’aide à son téléphone. Il est tout à fait stupéfiant qu’un aussi petit animal soit capable de localiser sa ruche et de retrouver sa colonie à chaque sortie — avec seulement un million de neurones et 48 000 photorécepteurs par œil (contre 127 millions pour l’œil humain).
Le secret de ces insectes est l’« odométrie visuelle », c’est-à-dire l’aptitude à mesurer les distances en voyant le sol défiler entre les différents points de sa route aérienne, entre autres, mais aussi la reconnaissance de route par familiarité visuelle à très basse résolution et la vision de la polarisation du ciel pour trouver le cap à suivre.
Pour imiter l’œil des insectes, nous avons développé en 2013 le premier capteur visuel miniature (1,75 gramme) de type œil composé de 630 petits yeux élémentaires, appelé CurvACE.
Ce capteur, aux performances toujours inégalées à ce jour, est capable de mesurer des vitesses de défilement de contrastes visuels, que ce soit par un clair de lune ou une journée très ensoleillée. L’avantage majeur de cet œil composé est son large champ visuel panoramique horizontal de 180° et vertical de 60° pour une taille de seulement 15 millimètres de diamètre et une consommation de quelques milliwatts. Même si les récepteurs GPS consomment autant que le capteur CurvACE, les calculs effectués pour déterminer votre position à partir des signaux satellitaires sont extrêmement coûteux. C’est pour cela que la navigation sur smartphone est très consommatrice d’énergie. À cela, il faut ajouter le coût énergétique et écologique de l’entretien des constellations de satellites.
Puis, nous avons équipé un drone miniature de 80 grammes d’une paire de capteurs CurvACE, grâce auxquels il peut suivre un relief accidenté. Ce type de capteur pesant seulement quelques milligrammes pourrait équiper les drones de demain.
Les fourmis du désert Cataglyphis, que l’on retrouve principalement en milieux désertiques et sur le pourtour méditerranéen, sont capables de parcourir jusqu’à un kilomètre pour trouver leur nourriture, puis de rentrer au nid en moins de trente minutes, sur un sol pouvant atteindre plus de 50 °C. Pour cela, la fourmi compte ses pas, exploite l’« odométrie visuelle », et trouve son cap en observant la lumière diffusée par le ciel.
Notre robot fourmi AntBot est équipé de capteurs visuels inspirés des fourmis. Le premier est une boussole optique constituée de deux photorécepteurs sensibles au rayonnement ultraviolet et surmontés de filtres polarisants. En faisant tourner ces filtres, il est possible de scanner le ciel pour trouver l’axe de symétrie de motif de polarisation du ciel représentant une direction à suivre, puis de déterminer le cap du robot avec une précision inférieure à 0,5° représentant la taille optique de la lune ou du soleil dans le ciel.
Le second capteur est une rétine artificielle composée de 12 photorécepteurs, dénommé M2APix, qui s’adaptent aux changements de luminosité comme l’œil composé artificiel CurvACE. La distance est alors calculée en combinant le comptage de pas et le défilement optique, comme le font les fourmis du désert.
Testé sous diverses couvertures nuageuses, le robot AntBot s’est repositionné de façon autonome avec une erreur de sept centimètres, soit une valeur presque 100 fois plus faible que celle d’un dispositif de géolocalisation après un trajet de quinze mètres. Ce mode de navigation pourrait être intégré aux véhicules autonomes et intelligents afin de fiabiliser les systèmes de navigation autonomes par la combinaison de différentes façons de mesurer sa position.
En effet, les signaux de géolocalisation sont actuellement émis par des satellites au moyen d’ondes électromagnétiques de fréquences allant de 1,1 GHz à 2,5 GHz, très voisine de celles de la téléphonie mobile et peuvent être brouillés ou usurpés par un émetteur terrestre émettant un signal identique à celui d’un satellite. Bénéficier d’un dispositif capable de se localiser de façon autonome, sans se connecter à une entité extérieure, permettra de fiabiliser les véhicules autonomes sans pour autant consommer plus d’énergie et de ressources pour les faire fonctionner.
Julien Serres a reçu des financements de la part de l'Agence de l'Innovation Défense (AID), du Centre National de la Recherche Scientifique (CNRS), d'Aix Marseille Université (amU), de la Fondation Amidex, de la Région Sud (Provence-Alpes-Côte d'Azur), et de la Société d'Accélération du Transfert de Technologies Sud-Est (SATT Sud-Est).