menu
close

WildFusion IA dote les robots d’une perception sensorielle semblable à celle des humains

Des chercheurs de l’Université Duke ont mis au point WildFusion, un cadre d’IA révolutionnaire qui permet aux robots de naviguer dans des environnements complexes en intégrant la vision, les vibrations et le toucher. Cette approche multisensorielle permet aux robots quadrupèdes de traverser des terrains difficiles comme les forêts et les zones sinistrées avec une précision inégalée. Cette technologie représente une avancée majeure dans la perception robotique, en imitant la façon dont les humains utilisent plusieurs sens pour comprendre et interagir avec leur environnement.
WildFusion IA dote les robots d’une perception sensorielle semblable à celle des humains

Des chercheurs de l’Université Duke ont créé un cadre d’intelligence artificielle révolutionnaire, appelé WildFusion, qui transforme la façon dont les robots perçoivent et naviguent dans des environnements complexes en fusionnant plusieurs entrées sensorielles, à l’image de la perception humaine.

Contrairement aux systèmes robotiques traditionnels qui s’appuient principalement sur les données visuelles des caméras ou du LiDAR, WildFusion intègre la vision à des retours tactiles et acoustiques. Le système, installé sur un robot quadrupède, combine des caméras RGB et un LiDAR à des microphones de contact, des capteurs tactiles et des unités de mesure inertielle afin de créer une conscience environnementale complète.

« WildFusion ouvre un nouveau chapitre dans la navigation robotique et la cartographie 3D », explique Boyuan Chen, professeur adjoint à l’Université Duke. « Il aide les robots à évoluer avec plus d’assurance dans des environnements non structurés et imprévisibles comme les forêts, les zones sinistrées et les terrains hors route. »

Ce qui rend WildFusion particulièrement innovant, c’est sa capacité à traiter et à interpréter les données sensorielles grâce à des encodeurs neuronaux spécialisés. À mesure que le robot avance, les microphones de contact détectent les vibrations uniques de chaque pas — permettant de distinguer des surfaces comme des feuilles sèches ou de la boue — tandis que les capteurs tactiles mesurent la pression exercée par les pattes pour évaluer la stabilité. Cette riche information sensorielle est ensuite transmise à un modèle d’apprentissage profond utilisant des représentations neuronales implicites, permettant au robot de construire des cartes environnementales continues même lorsque les données visuelles sont incomplètes.

La technologie a été testée avec succès au parc d’État de la rivière Eno, en Caroline du Nord, où le robot a traversé des forêts denses, des prairies et des chemins de gravier avec une précision remarquable. Lorsque la lumière tachetée troublait les capteurs visuels, l’approche intégrée de WildFusion permettait tout de même de prédire avec précision les appuis stables.

Les retombées dépassent largement le cadre de la recherche académique. WildFusion pourrait révolutionner les opérations de recherche et sauvetage, l’exploration d’environnements dangereux, l’inspection d’infrastructures et l’automatisation industrielle. Les développements futurs visent à intégrer d’autres capteurs, comme des détecteurs thermiques et d’humidité, afin d’accroître encore la conscience environnementale des robots.

À mesure que les robots s’intègrent de plus en plus dans des scénarios réels complexes, WildFusion représente une avancée majeure vers la création de machines capables de s’adapter et de fonctionner efficacement dans les environnements imprévisibles que les humains naviguent avec aisance.

Source:

Latest News