Tradicionalmente, los robots han dependido únicamente de la información visual para navegar su entorno, lo que limita severamente su eficacia en ambientes complejos e impredecibles. Ahora, investigadores de la Universidad de Duke han creado un marco revolucionario llamado WildFusion que cambia fundamentalmente la forma en que los robots perciben e interactúan con el mundo que los rodea.
WildFusion equipa a un robot cuadrúpedo con múltiples capacidades sensoriales que imitan la percepción humana. Más allá de las entradas visuales estándar de cámaras y LiDAR, el sistema incorpora micrófonos de contacto que detectan vibraciones de cada paso, sensores táctiles que miden la fuerza aplicada y sensores inerciales que monitorean la estabilidad del robot mientras se desplaza sobre terrenos irregulares.
"WildFusion abre un nuevo capítulo en la navegación robótica y el mapeo 3D", explica Boyuan Chen, profesor asistente en la Universidad de Duke. "Ayuda a los robots a operar con mayor confianza en entornos no estructurados e impredecibles como bosques, zonas de desastre y terrenos fuera de carretera".
En el corazón de WildFusion se encuentra un sofisticado modelo de aprendizaje profundo basado en representaciones neuronales implícitas. A diferencia de los métodos tradicionales que tratan los entornos como colecciones de puntos discretos, este enfoque modela las superficies de manera continua, permitiendo al robot tomar decisiones intuitivas incluso cuando los datos visuales están bloqueados o son ambiguos. El sistema efectivamente "rellena los espacios" cuando los datos de los sensores están incompletos, de manera similar a como lo hacen los humanos.
La tecnología ha sido probada exitosamente en el Parque Estatal Eno River de Carolina del Norte, donde el robot navegó con confianza a través de bosques densos, praderas y caminos de grava. Según Yanbaihui Liu, autor principal del estudio, "estas pruebas en el mundo real demostraron la notable capacidad de WildFusion para predecir con precisión la transitabilidad, mejorando significativamente la toma de decisiones del robot sobre rutas seguras en terrenos desafiantes".
El equipo de investigación también ha desarrollado un método de simulación que les permite probar las capacidades del robot sin intervención humana directa en las primeras fases de desarrollo, haciendo que el proceso de investigación sea más rápido y escalable. Este enfoque representa un avance significativo en la metodología de pruebas en robótica.
Gracias a su diseño modular, WildFusion tiene un vasto potencial de aplicaciones más allá de los senderos forestales, incluyendo respuesta a desastres, inspección de infraestructura remota y exploración autónoma. La tecnología, respaldada por DARPA y el Laboratorio de Investigación del Ejército, será presentada en la Conferencia Internacional IEEE sobre Robótica y Automatización (ICRA 2025) en Atlanta este mes de mayo.