I ricercatori della Duke University hanno creato un sistema di intelligenza artificiale rivoluzionario che conferisce ai robot la capacità di navigare in ambienti esterni difficili con un’efficacia senza precedenti. Il framework, denominato WildFusion, è stato presentato il 19 maggio 2025 alla IEEE International Conference on Robotics and Automation (ICRA 2025) di Atlanta.
A differenza dei robot tradizionali che si affidano esclusivamente ai dati visivi provenienti da telecamere o LiDAR, WildFusion integra molteplici input sensoriali per offrire una comprensione più completa dell’ambiente circostante. Basato su una piattaforma robotica quadrupede, il sistema combina informazioni visive con sensori tattili e microfoni di contatto che rilevano le vibrazioni mentre il robot cammina. Questi sensi aggiuntivi permettono al robot di distinguere tra superfici diverse—dal fruscio delle foglie secche alla morbida consistenza del fango—e di valutare la stabilità in tempo reale.
“WildFusion apre un nuovo capitolo nella navigazione robotica e nella mappatura 3D,” ha dichiarato Boyuan Chen, Dickinson Family Assistant Professor presso la Duke University. “Aiuta i robot a operare con maggiore sicurezza in ambienti non strutturati e imprevedibili come foreste, zone di disastro e terreni accidentati.”
Il cuore di WildFusion è un modello di deep learning basato su rappresentazioni neurali implicite. Questo approccio modella l’ambiente in modo continuo piuttosto che come punti discreti, consentendo al robot di prendere decisioni più intelligenti anche quando i dati dei sensori sono incompleti o ambigui. Il sistema è stato testato con successo all’Eno River State Park nella Carolina del Nord, dove ha navigato tra fitte foreste, praterie e sentieri ghiaiosi con notevole stabilità.
Nello stesso giorno, i ricercatori della Pohang University of Science and Technology (POSTECH) hanno annunciato un’innovazione complementare: nuovi dispositivi aptici progettati per migliorare la sicurezza negli ambienti industriali. Guidato dal professor Keehoon Kim e dal dottorando Jaehyun Park, il team ha sviluppato due tipi di interfacce aptiche che consentono agli operatori di controllare a distanza i robot ricevendo un feedback tattile realistico.
I dispositivi POSTECH—POstick-KF (Kinesthetic Feedback) e POstick-VF (Visuo-tactile Feedback)—trasmettono variazioni di forza precise che i robot sperimentano durante la manipolazione di oggetti, permettendo operazioni remote più delicate e accurate in ambienti industriali pericolosi.
Entrambe le innovazioni rappresentano importanti progressi nell’interazione uomo-robot, con WildFusion finanziato da DARPA e Army Research Laboratory, a testimonianza delle potenziali applicazioni della tecnologia sia in ambito civile che difensivo.