Vous êtes-vous déjà demandé comment les insectes parviennent à s’éloigner de leur habitat et à retrouver leur chemin ? La réponse à cette question n’est pas seulement pertinente pour la biologie, mais aussi pour la conception de l’IA destinée à de minuscules robots autonomes.
Des chercheurs de l’Université technique de Delft ont été inspirés par les découvertes biologiques sur la façon dont les fourmis reconnaissent visuellement leur environnement et le combinent avec le comptage de leurs pas pour rentrer chez elles en toute sécurité. Ils ont utilisé ces connaissances pour créer une stratégie de navigation autonome inspirée des insectes pour des robots minuscules et légers.
Cette stratégie permet à ces robots de revenir à leur point de départ après de longues trajectoires, tout en nécessitant extrêmement peu de calcul et de mémoire (0,65 kilo-octets par 100 m). À l’avenir, les petits robots autonomes pourraient trouver de nombreuses applications, de la surveillance des stocks dans les entrepôts à la détection de fuites de gaz dans les sites industriels.
Les chercheurs ont publié leurs résultats dans Robotique scientifiquele 17 juillet 2024.
Défendre les petits
Les robots de petite taille, pesant de quelques dizaines à quelques centaines de grammes, ont le potentiel de trouver des applications intéressantes dans le monde réel. Grâce à leur faible poids, ils sont extrêmement sûrs, même s’ils heurtent accidentellement quelqu’un.
Grâce à leur petite taille, ils peuvent se déplacer dans des zones étroites. Et s’ils peuvent être fabriqués à moindre coût, ils peuvent être déployés en plus grand nombre, de sorte qu’ils peuvent rapidement couvrir une grande surface, par exemple dans les serres pour la détection précoce de parasites ou de maladies.
Cependant, il est difficile de faire fonctionner de tels petits robots de manière autonome, car ils disposent de ressources extrêmement limitées par rapport aux robots plus grands. L’un des principaux obstacles est qu’ils doivent être capables de se déplacer seuls. Pour cela, les robots peuvent s’aider d’infrastructures externes. Ils peuvent utiliser les estimations de localisation des satellites GPS à l’extérieur ou des balises de communication sans fil à l’intérieur.
Cependant, il n’est souvent pas souhaitable de s’appuyer sur une telle infrastructure. Le GPS n’est pas disponible à l’intérieur et peut devenir très imprécis dans des environnements encombrés comme les canyons urbains. De plus, l’installation et la maintenance de balises dans des espaces intérieurs sont assez coûteuses ou tout simplement impossibles, par exemple dans les scénarios de recherche et de sauvetage.
L’intelligence artificielle nécessaire à la navigation autonome avec les seules ressources embarquées a été conçue pour les gros robots, comme les voitures autonomes. Certaines approches s’appuient sur des capteurs lourds et gourmands en énergie comme les télémètres laser LiDAR, qui ne peuvent tout simplement pas être transportés ou alimentés par de petits robots.
D’autres approches utilisent la vision, un capteur très économe en énergie qui fournit de nombreuses informations sur l’environnement. Cependant, ces approches tentent généralement de créer des cartes 3D très détaillées de l’environnement. Cela nécessite de grandes quantités de traitement et de mémoire, qui ne peuvent être fournies que par des ordinateurs trop grands et gourmands en énergie pour de minuscules robots.
Compter les pas et les miettes de pain visuelles
C’est pourquoi certains chercheurs se sont tournés vers la nature pour trouver l’inspiration. Les insectes sont particulièrement intéressants car ils évoluent sur des distances qui pourraient être utiles à de nombreuses applications concrètes, tout en utilisant des ressources de détection et de calcul très limitées.
Les biologistes ont une meilleure compréhension des stratégies sous-jacentes utilisées par les insectes. Plus précisément, les insectes combinent le suivi de leurs propres mouvements (appelé « odométrie ») avec des comportements guidés visuellement basés sur leur système visuel à faible résolution, mais presque omnidirectionnel (appelé « mémoire visuelle »).
Alors que l’odométrie est de mieux en mieux comprise jusqu’au niveau neuronal, les mécanismes précis sous-jacents à la mémoire visuelle sont encore moins bien compris.
L’une des premières théories sur ce fonctionnement propose un modèle de « capture instantanée ». Dans ce modèle, un insecte, comme une fourmi, prend occasionnellement des instantanés de son environnement.
Plus tard, en arrivant près de l’instantané, l’insecte peut comparer sa perception visuelle actuelle à l’instantané et se déplacer pour minimiser les différences. Cela permet à l’insecte de naviguer, ou de « rentrer chez lui », jusqu’à l’emplacement de l’instantané, supprimant toute dérive qui s’accumule inévitablement lorsqu’il effectue uniquement l’odométrie.
« La navigation par capture instantanée peut être comparée à la façon dont Hansel essayait de ne pas se perdre dans le conte de fées d’Hansel et Gretel. Lorsque Hans jetait des pierres par terre, il pouvait rentrer chez lui. En revanche, lorsqu’il jetait des miettes de pain qui étaient mangées par les oiseaux, Hans et Gretel se perdaient. Dans notre cas, les pierres sont les captures instantanées », explique Tom van Dijk, premier auteur de l’étude.
« Comme pour une pierre, pour qu’un instantané fonctionne, le robot doit être suffisamment proche de l’emplacement de l’instantané. Si l’environnement visuel est trop différent de celui de l’emplacement de l’instantané, le robot peut se déplacer dans la mauvaise direction et ne plus jamais revenir. Il faut donc utiliser suffisamment d’instantanés ou, dans le cas de Hansel, laisser tomber un nombre suffisant de pierres.
« D’un autre côté, laisser tomber des pierres trop près les unes des autres épuiserait trop rapidement les pierres de Hans. Dans le cas d’un robot, l’utilisation de trop de snapshots entraîne une consommation de mémoire importante. Les travaux précédents dans ce domaine avaient généralement des snapshots très proches les uns des autres, de sorte que le robot pouvait d’abord se diriger visuellement vers un snapshot, puis vers le suivant. »
« L’idée principale qui sous-tend notre stratégie est que l’on peut espacer les instantanés beaucoup plus loin, si le robot se déplace entre les instantanés en fonction de l’odométrie », explique Guido de Croon, professeur titulaire en drones bio-inspirés et co-auteur de l’article.
« Le retour à la maison fonctionnera tant que le robot se trouve suffisamment près de l’emplacement de la capture instantanée, c’est-à-dire tant que la dérive odométrique du robot tombe dans la « zone de captage » de la capture instantanée. Cela permet également au robot de se déplacer beaucoup plus loin, car il vole beaucoup plus lentement lorsqu’il se rend à la maison vers une capture instantanée que lorsqu’il vole d’une capture instantanée à une autre en fonction de l’odométrie. »
La stratégie de navigation inspirée des insectes proposée a permis à un drone « CrazyFlie » de 56 grammes, équipé d’une caméra omnidirectionnelle, de couvrir des distances allant jusqu’à 100 mètres avec seulement 0,65 kilo-octets. Tout le traitement visuel s’effectuait sur un minuscule ordinateur appelé « microcontrôleur », que l’on retrouve dans de nombreux appareils électroniques bon marché.
Mettre la technologie robotique au travail
« La stratégie de navigation inspirée des insectes proposée est une étape importante sur la voie de l’application de minuscules robots autonomes dans le monde réel », déclare Guido de Croon.
« La fonctionnalité de la stratégie proposée est plus limitée que celle fournie par les méthodes de navigation de pointe. Elle ne génère pas de carte et permet uniquement au robot de revenir au point de départ.
« Pour de nombreuses applications, cela peut être largement suffisant. Par exemple, pour le suivi des stocks dans les entrepôts ou la surveillance des cultures dans les serres, les drones pourraient décoller, collecter des données puis revenir à la station de base. Ils pourraient stocker des images pertinentes pour la mission sur une petite carte SD pour un post-traitement par un serveur. Mais ils n’en auraient pas besoin pour la navigation elle-même. »
Plus d’information:
Tom van Dijk et al, Suivi visuel d’itinéraire pour de minuscules robots autonomes, Robotique scientifique (2024). DOI : 10.1126/scirobotics.adk0310. www.science.org/doi/10.1126/scirobotics.adk0310
Fourni par l’Université de technologie de Delft
Citation: Des chercheurs créent une stratégie de navigation autonome inspirée des insectes pour de minuscules robots légers (2024, 17 juillet) récupéré le 17 juillet 2024 à partir de
Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d’information uniquement.