Des chercheurs de l’Université Duke ont mis au point un cadre d’intelligence artificielle révolutionnaire baptisé WildFusion, qui transforme la façon dont les robots perçoivent et naviguent dans des environnements complexes en fusionnant plusieurs entrées sensorielles, à l’image de la perception humaine.
Contrairement aux systèmes robotiques traditionnels qui s’appuient principalement sur les données visuelles issues de caméras ou de LiDAR, WildFusion intègre la vision à des retours tactiles et acoustiques. Le système, installé sur un robot quadrupède, combine des caméras RGB et un LiDAR à des microphones de contact, des capteurs tactiles et des unités de mesure inertielle, afin d’offrir une perception environnementale globale.
« WildFusion ouvre un nouveau chapitre dans la navigation robotique et la cartographie 3D », explique Boyuan Chen, professeur assistant à l’Université Duke. « Il permet aux robots d’évoluer avec plus d’assurance dans des environnements non structurés et imprévisibles, comme les forêts, les zones sinistrées ou les terrains accidentés. »
L’innovation majeure de WildFusion réside dans sa capacité à traiter et interpréter les données sensorielles grâce à des encodeurs neuronaux spécialisés. Lors de la marche du robot, les microphones de contact détectent les vibrations uniques de chaque pas—distinguant par exemple les feuilles sèches de la boue—tandis que les capteurs tactiles mesurent la pression au sol pour évaluer la stabilité. Ces informations sensorielles riches alimentent un modèle d’apprentissage profond utilisant des représentations neuronales implicites, permettant au robot de construire des cartes environnementales continues, même lorsque les données visuelles sont incomplètes.
La technologie a été testée avec succès dans le parc d’État d’Eno River, en Caroline du Nord, où le robot a traversé forêts denses, prairies et chemins de gravier avec une précision remarquable. Lorsque la lumière tachetée perturbait les capteurs visuels, l’approche intégrée de WildFusion permettait tout de même de prédire avec précision les appuis stables.
Les implications dépassent largement le cadre de la recherche académique. WildFusion pourrait révolutionner les opérations de recherche et de sauvetage, l’exploration d’environnements dangereux, l’inspection d’infrastructures ou encore l’automatisation industrielle. Les développements futurs visent à intégrer des capteurs supplémentaires, tels que des détecteurs thermiques ou d’humidité, pour renforcer encore la perception environnementale des robots.
À mesure que les robots s’intègrent dans des scénarios réels de plus en plus complexes, WildFusion représente une avancée majeure vers des machines capables de s’adapter et de fonctionner efficacement dans des environnements imprévisibles, que les humains traversent avec aisance.