menu
close

Un robot « ressent » comme un humain grâce à la technologie révolutionnaire WildFusion

Des chercheurs de l’Université Duke ont mis au point WildFusion, un cadre novateur qui permet aux robots de percevoir des environnements complexes à l’aide de plusieurs sens, dont la vision, le toucher et les vibrations. Cette technologie permet aux robots quadrupèdes de naviguer dans des terrains difficiles comme les forêts et les zones sinistrées avec des capacités de perception semblables à celles des humains. Le système traite les données sensorielles à l’aide d’encodeurs spécialisés et d’un modèle d’apprentissage profond, créant une représentation continue de l’environnement même lorsque les données des capteurs sont incomplètes.
Un robot « ressent » comme un humain grâce à la technologie révolutionnaire WildFusion

Les robots se sont traditionnellement appuyés uniquement sur l’information visuelle pour naviguer dans leur environnement, ce qui limitait grandement leur efficacité dans des milieux complexes et imprévisibles. Aujourd’hui, des chercheurs de l’Université Duke ont créé un cadre révolutionnaire appelé WildFusion qui change fondamentalement la façon dont les robots perçoivent et interagissent avec le monde qui les entoure.

WildFusion dote un robot à quatre pattes de multiples capacités sensorielles qui imitent la perception humaine. Au-delà des entrées visuelles standard provenant de caméras et de LiDAR, le système intègre des microphones de contact qui détectent les vibrations de chaque pas, des capteurs tactiles qui mesurent la force appliquée, ainsi que des capteurs inertiels qui suivent la stabilité du robot lorsqu’il se déplace sur un terrain accidenté.

« WildFusion ouvre un nouveau chapitre dans la navigation robotique et la cartographie 3D », explique Boyuan Chen, professeur adjoint à l’Université Duke. « Il aide les robots à opérer avec plus d’assurance dans des environnements non structurés et imprévisibles comme les forêts, les zones sinistrées et les terrains hors route. »

Au cœur de WildFusion se trouve un modèle sophistiqué d’apprentissage profond basé sur des représentations neuronales implicites. Contrairement aux méthodes traditionnelles qui traitent les environnements comme des collections de points discrets, cette approche modélise les surfaces de façon continue, permettant au robot de prendre des décisions intuitives même lorsque les données visuelles sont bloquées ou ambiguës. Le système « comble les lacunes » lorsque les données des capteurs sont incomplètes, un peu comme le ferait un humain.

La technologie a été testée avec succès au parc d’État de la rivière Eno en Caroline du Nord, où le robot a navigué avec assurance dans des forêts denses, des prairies et sur des sentiers de gravier. Selon l’auteur principal Yanbaihui Liu, « ces essais en conditions réelles ont démontré la remarquable capacité de WildFusion à prédire avec précision la traversabilité, améliorant significativement la prise de décision du robot sur les chemins sécuritaires à travers des terrains difficiles ».

L’équipe de recherche a également développé une méthode de simulation permettant de tester les capacités du robot sans intervention humaine directe lors des premières phases de développement, accélérant ainsi le processus de recherche et le rendant plus évolutif. Cette approche représente une avancée majeure dans la méthodologie de test en robotique.

Grâce à sa conception modulaire, WildFusion offre de vastes applications potentielles au-delà des sentiers forestiers, notamment pour l’intervention en cas de catastrophe, l’inspection d’infrastructures éloignées et l’exploration autonome. La technologie, soutenue par la DARPA et le Army Research Laboratory, sera présentée à la conférence internationale IEEE sur la robotique et l’automatisation (ICRA 2025) à Atlanta en mai prochain.

Source:

Latest News