menu
close

Robot 'Percepisce' come gli Umani grazie alla rivoluzionaria tecnologia WildFusion

I ricercatori della Duke University hanno sviluppato WildFusion, un innovativo framework che consente ai robot di percepire ambienti complessi attraverso molteplici sensi, tra cui vista, tatto e vibrazione. Questa tecnologia permette ai robot quadrupedi di muoversi su terreni difficili come foreste e zone di disastro con capacità percettive simili a quelle umane. Il sistema elabora i dati sensoriali tramite encoder specializzati e un modello di deep learning, creando una rappresentazione continua dell’ambiente anche quando i dati dei sensori sono incompleti.
Robot 'Percepisce' come gli Umani grazie alla rivoluzionaria tecnologia WildFusion

Tradizionalmente, i robot si sono affidati esclusivamente alle informazioni visive per navigare nell’ambiente circostante, limitando fortemente la loro efficacia in contesti complessi e imprevedibili. Ora, i ricercatori della Duke University hanno creato un framework rivoluzionario chiamato WildFusion che cambia radicalmente il modo in cui i robot percepiscono e interagiscono con il mondo che li circonda.

WildFusion dota un robot quadrupede di molteplici capacità sensoriali che imitano la percezione umana. Oltre ai classici input visivi provenienti da telecamere e LiDAR, il sistema integra microfoni a contatto che rilevano le vibrazioni di ogni passo, sensori tattili che misurano la forza applicata e sensori inerziali che monitorano la stabilità del robot mentre si muove su terreni irregolari.

"WildFusion apre un nuovo capitolo nella navigazione robotica e nella mappatura 3D", spiega Boyuan Chen, Assistant Professor presso la Duke University. "Aiuta i robot a operare con maggiore sicurezza in ambienti non strutturati e imprevedibili come foreste, zone di disastro e terreni fuoristrada."

Al cuore di WildFusion si trova un sofisticato modello di deep learning basato su rappresentazioni neurali implicite. A differenza dei metodi tradizionali che trattano gli ambienti come insiemi di punti discreti, questo approccio modella le superfici in modo continuo, permettendo al robot di prendere decisioni intuitive anche quando i dati visivi sono bloccati o ambigui. Il sistema è in grado di "colmare le lacune" quando i dati sensoriali sono incompleti, proprio come fanno gli esseri umani.

La tecnologia è stata testata con successo all’Eno River State Park in North Carolina, dove il robot ha navigato con sicurezza tra fitte foreste, praterie e sentieri ghiaiosi. Secondo Yanbaihui Liu, primo autore dello studio, "Questi test sul campo hanno dimostrato la straordinaria capacità di WildFusion di prevedere con precisione la percorribilità, migliorando significativamente il processo decisionale del robot sui percorsi sicuri attraverso terreni impegnativi."

Il team di ricerca ha inoltre sviluppato un metodo di simulazione che consente di testare le capacità del robot senza il coinvolgimento diretto dell’uomo nelle fasi iniziali di sviluppo, rendendo il processo di ricerca più rapido e scalabile. Questo approccio rappresenta un importante progresso nella metodologia di test della robotica.

Grazie al suo design modulare, WildFusion offre ampie potenzialità applicative oltre ai sentieri forestali, tra cui risposta alle emergenze, ispezione di infrastrutture remote ed esplorazione autonoma. La tecnologia, sostenuta da DARPA e Army Research Laboratory, sarà presentata all’IEEE International Conference on Robotics and Automation (ICRA 2025) ad Atlanta il prossimo maggio.

Source:

Latest News