menu
close

WildFusion AI otorga percepción sensorial similar a la humana a los robots

Investigadores de la Universidad de Duke han desarrollado WildFusion, un innovador marco de inteligencia artificial que permite a los robots navegar entornos complejos integrando visión, vibración y tacto. Este enfoque multisensorial permite a robots cuadrúpedos desplazarse por terrenos desafiantes como bosques y zonas de desastre con una precisión sin precedentes. La tecnología representa un avance significativo en la percepción robótica, imitando la manera en que los humanos utilizan múltiples sentidos para comprender e interactuar con su entorno.
WildFusion AI otorga percepción sensorial similar a la humana a los robots

Investigadores de la Universidad de Duke han creado un revolucionario marco de inteligencia artificial llamado WildFusion, que transforma la manera en que los robots perciben y navegan entornos complejos al fusionar múltiples entradas sensoriales de forma similar a la percepción humana.

A diferencia de los sistemas robóticos tradicionales que dependen principalmente de datos visuales provenientes de cámaras o LiDAR, WildFusion integra la visión con retroalimentación táctil y acústica. El sistema, implementado en un robot cuadrúpedo, combina cámaras RGB y LiDAR con micrófonos de contacto, sensores táctiles y unidades de medición inercial para crear una conciencia ambiental integral.

"WildFusion abre un nuevo capítulo en la navegación robótica y el mapeo 3D", explica Boyuan Chen, profesor asistente en la Universidad de Duke. "Ayuda a los robots a operar con mayor confianza en entornos no estructurados e impredecibles como bosques, zonas de desastre y terrenos fuera de carretera".

Lo que hace especialmente innovador a WildFusion es su capacidad para procesar e interpretar datos sensoriales mediante codificadores neuronales especializados. Mientras el robot camina, los micrófonos de contacto detectan vibraciones únicas de cada paso—distinguiendo entre superficies como hojas secas o lodo—mientras que los sensores táctiles miden la presión en las patas para evaluar la estabilidad. Esta rica información sensorial se introduce en un modelo de aprendizaje profundo que utiliza representaciones neuronales implícitas, permitiendo al robot construir mapas ambientales continuos incluso cuando los datos visuales son incompletos.

La tecnología fue probada exitosamente en el Parque Estatal Eno River en Carolina del Norte, donde el robot navegó con notable precisión por bosques densos, pastizales y caminos de grava. Cuando la luz solar moteada confundía a los sensores visuales, el enfoque integrado de WildFusion aún predecía con exactitud puntos de apoyo estables.

Las implicaciones van mucho más allá de la investigación académica. WildFusion podría revolucionar aplicaciones en operaciones de búsqueda y rescate, exploración de entornos peligrosos, inspección de infraestructura y automatización industrial. Los desarrollos futuros buscan incorporar sensores adicionales como detectores térmicos y de humedad, mejorando aún más la conciencia ambiental de los robots.

A medida que los robots se integran cada vez más en escenarios complejos del mundo real, WildFusion representa un paso significativo hacia la creación de máquinas capaces de adaptarse y funcionar eficazmente en los entornos impredecibles que los humanos navegan con facilidad.

Source:

Latest News