Investigadores de la Universidad de Duke han creado un sistema de inteligencia artificial revolucionario que otorga a los robots la capacidad de navegar entornos exteriores desafiantes con una efectividad sin precedentes. El marco, denominado WildFusion, fue presentado en la Conferencia Internacional IEEE sobre Robótica y Automatización (ICRA 2025) en Atlanta el 19 de mayo de 2025.
A diferencia de los robots tradicionales que dependen únicamente de datos visuales provenientes de cámaras o LiDAR, WildFusion integra múltiples entradas sensoriales para crear una comprensión más completa del entorno. Construido sobre una plataforma robótica cuadrúpeda, el sistema combina información visual con sensores táctiles y micrófonos de contacto que detectan vibraciones mientras el robot camina. Estos sentidos adicionales permiten al robot distinguir entre diferentes superficies—desde el crujido de hojas secas hasta la suavidad fangosa del lodo—y evaluar la estabilidad en tiempo real.
"WildFusion abre un nuevo capítulo en la navegación robótica y el mapeo 3D", afirmó Boyuan Chen, profesor asistente Dickinson Family en la Universidad de Duke. "Ayuda a que los robots operen con mayor confianza en entornos no estructurados e impredecibles como bosques, zonas de desastre y terrenos fuera de carretera".
En el núcleo de WildFusion se encuentra un modelo de aprendizaje profundo basado en representaciones neuronales implícitas. Este enfoque modela el entorno de manera continua en lugar de puntos discretos, permitiendo que el robot tome decisiones más inteligentes incluso cuando los datos de los sensores son incompletos o ambiguos. El sistema fue probado con éxito en el Parque Estatal Eno River en Carolina del Norte, donde navegó por bosques densos, praderas y caminos de grava con una estabilidad notable.
Ese mismo día, investigadores de la Universidad de Ciencia y Tecnología de Pohang (POSTECH) anunciaron una innovación complementaria: nuevos dispositivos hápticos diseñados para mejorar la seguridad en entornos industriales. Liderados por el profesor Keehoon Kim y el candidato a doctorado Jaehyun Park, el equipo desarrolló dos tipos de interfaces hápticas que permiten a los trabajadores controlar robots de forma remota mientras reciben retroalimentación táctil realista.
Los dispositivos de POSTECH—POstick-KF (Retroalimentación Cinestésica) y POstick-VF (Retroalimentación Visuotáctil)—transmiten cambios precisos de fuerza que experimentan los robots al manipular objetos, permitiendo operaciones remotas más delicadas y precisas en entornos industriales peligrosos.
Ambas innovaciones representan avances significativos en la interacción humano-robot, con WildFusion financiado por DARPA y el Laboratorio de Investigación del Ejército, lo que resalta el potencial de estas tecnologías tanto en aplicaciones civiles como de defensa.