Investigadores de la Universidad de Duke han creado un sistema de inteligencia artificial pionero que otorga a los robots la capacidad de desplazarse por entornos exteriores difíciles con una eficacia sin precedentes. El marco, denominado WildFusion, fue presentado en la Conferencia Internacional de Robótica y Automatización de la IEEE (ICRA 2025) en Atlanta el 19 de mayo de 2025.
A diferencia de los robots tradicionales, que dependen únicamente de datos visuales procedentes de cámaras o LiDAR, WildFusion integra múltiples entradas sensoriales para lograr una comprensión más completa del entorno. Desarrollado sobre una plataforma robótica cuadrúpeda, el sistema combina información visual con sensores táctiles y micrófonos de contacto que detectan vibraciones mientras el robot camina. Estos sentidos adicionales permiten al robot distinguir entre diferentes superficies—desde el crujido de hojas secas hasta la suavidad del barro—y evaluar la estabilidad en tiempo real.
"WildFusion abre un nuevo capítulo en la navegación robótica y el mapeo 3D", afirmó Boyuan Chen, profesor asistente de la familia Dickinson en la Universidad de Duke. "Ayuda a los robots a operar con mayor confianza en entornos no estructurados e impredecibles como bosques, zonas de desastre y terrenos fuera de carretera".
En el núcleo de WildFusion se encuentra un modelo de aprendizaje profundo basado en representaciones neuronales implícitas. Este enfoque modela el entorno de manera continua en lugar de como puntos discretos, lo que permite al robot tomar decisiones más inteligentes incluso cuando los datos de los sensores son incompletos o ambiguos. El sistema fue probado con éxito en el Parque Estatal del Río Eno en Carolina del Norte, donde navegó por bosques densos, praderas y caminos de grava con una estabilidad notable.
Ese mismo día, investigadores de la Universidad de Ciencia y Tecnología de Pohang (POSTECH) anunciaron una innovación complementaria: nuevos dispositivos hápticos diseñados para mejorar la seguridad en entornos industriales. Liderado por el profesor Keehoon Kim y el doctorando Jaehyun Park, el equipo desarrolló dos tipos de interfaces hápticas que permiten a los trabajadores controlar robots a distancia mientras reciben retroalimentación táctil realista.
Los dispositivos de POSTECH—POstick-KF (retroalimentación cinestésica) y POstick-VF (retroalimentación visuotáctil)—transmiten cambios de fuerza precisos que experimentan los robots al manipular objetos, permitiendo operaciones remotas más delicadas y precisas en entornos industriales peligrosos.
Ambas innovaciones representan avances significativos en la interacción humano-robot, con WildFusion financiado por DARPA y el Laboratorio de Investigación del Ejército, lo que subraya el potencial de la tecnología tanto en aplicaciones civiles como de defensa.