menu
close

Un robot 'siente' como los humanos gracias a la revolucionaria tecnología WildFusion

Investigadores de la Universidad de Duke han desarrollado WildFusion, un innovador marco que permite a los robots percibir entornos complejos a través de múltiples sentidos, incluyendo la visión, el tacto y la vibración. Esta tecnología posibilita que robots cuadrúpedos naveguen por terrenos difíciles como bosques y zonas de desastre con capacidades de percepción similares a las humanas. El sistema procesa datos sensoriales mediante codificadores especializados y un modelo de aprendizaje profundo, creando una representación continua del entorno incluso cuando los datos de los sensores son incompletos.
Un robot 'siente' como los humanos gracias a la revolucionaria tecnología WildFusion

Tradicionalmente, los robots han dependido únicamente de la información visual para moverse por su entorno, lo que limita gravemente su eficacia en ambientes complejos e impredecibles. Ahora, investigadores de la Universidad de Duke han creado un marco revolucionario llamado WildFusion que cambia fundamentalmente la forma en que los robots perciben e interactúan con el mundo que les rodea.

WildFusion dota a un robot cuadrúpedo de múltiples capacidades sensoriales que imitan la percepción humana. Más allá de las entradas visuales estándar de cámaras y LiDAR, el sistema incorpora micrófonos de contacto que detectan vibraciones de cada paso, sensores táctiles que miden la fuerza aplicada y sensores inerciales que monitorizan la estabilidad del robot mientras se desplaza por terrenos irregulares.

"WildFusion abre un nuevo capítulo en la navegación robótica y el mapeo 3D", explica Boyuan Chen, profesor adjunto en la Universidad de Duke. "Ayuda a los robots a operar con mayor confianza en entornos no estructurados e impredecibles como bosques, zonas de desastre y terrenos fuera de carretera".

En el núcleo de WildFusion se encuentra un sofisticado modelo de aprendizaje profundo basado en representaciones neuronales implícitas. A diferencia de los métodos tradicionales que tratan los entornos como colecciones de puntos discretos, este enfoque modela las superficies de manera continua, permitiendo que el robot tome decisiones intuitivas incluso cuando los datos visuales están bloqueados o son ambiguos. El sistema es capaz de "rellenar los huecos" cuando los datos sensoriales son incompletos, de manera similar a como lo hacen los humanos.

La tecnología ha sido probada con éxito en el Parque Estatal Eno River de Carolina del Norte, donde el robot navegó con confianza por bosques densos, praderas y caminos de grava. Según Yanbaihui Liu, autor principal del estudio, "estas pruebas en entornos reales demostraron la notable capacidad de WildFusion para predecir con precisión la transitabilidad, mejorando significativamente la toma de decisiones del robot sobre rutas seguras en terrenos difíciles".

El equipo de investigación también ha desarrollado un método de simulación que les permite probar las capacidades del robot sin intervención humana directa en las primeras fases de desarrollo, acelerando y escalando el proceso de investigación. Este enfoque supone un avance significativo en la metodología de pruebas robóticas.

Gracias a su diseño modular, WildFusion tiene un enorme potencial de aplicación más allá de los senderos forestales, incluyendo la respuesta ante desastres, la inspección de infraestructuras remotas y la exploración autónoma. La tecnología, respaldada por DARPA y el Laboratorio de Investigación del Ejército, será presentada en la Conferencia Internacional IEEE sobre Robótica y Automatización (ICRA 2025) en Atlanta este mes de mayo.

Source:

Latest News