menu
close

Robot 'Voelt' als Mensen met Baanbrekende WildFusion-technologie

Onderzoekers van de Duke University hebben WildFusion ontwikkeld, een innovatief framework dat robots in staat stelt complexe omgevingen waar te nemen via meerdere zintuigen, waaronder zicht, aanraking en vibratie. Dankzij deze technologie kunnen viervoetige robots uitdagende terreinen zoals bossen en rampgebieden navigeren met mensachtige waarnemingsvermogens. Het systeem verwerkt sensorische data via gespecialiseerde encoders en een deep learning-model, waardoor een continue representatie van de omgeving ontstaat, zelfs wanneer sensorgegevens onvolledig zijn.
Robot 'Voelt' als Mensen met Baanbrekende WildFusion-technologie

Robots vertrouwden traditioneel uitsluitend op visuele informatie om hun omgeving te navigeren, wat hun effectiviteit in complexe, onvoorspelbare omgevingen sterk beperkte. Nu hebben onderzoekers van de Duke University een revolutionair framework ontwikkeld, genaamd WildFusion, dat fundamenteel verandert hoe robots de wereld om zich heen waarnemen en ermee interageren.

WildFusion voorziet een viervoetige robot van meerdere zintuiglijke mogelijkheden die de menselijke waarneming nabootsen. Naast standaard visuele input van camera’s en LiDAR, bevat het systeem contactmicrofoons die vibraties van elke stap detecteren, tactiele sensoren die de uitgeoefende kracht meten en traagheidssensoren die de stabiliteit van de robot volgen terwijl deze over oneffen terrein beweegt.

"WildFusion opent een nieuw hoofdstuk in robotnavigatie en 3D-mapping," legt Boyuan Chen uit, universitair docent aan de Duke University. "Het helpt robots om zelfverzekerder te opereren in ongestructureerde, onvoorspelbare omgevingen zoals bossen, rampgebieden en offroad-terrein."

Het hart van WildFusion is een geavanceerd deep learning-model gebaseerd op impliciete neurale representaties. In tegenstelling tot traditionele methoden die omgevingen behandelen als verzamelingen van discrete punten, modelleert deze aanpak oppervlakken continu, waardoor de robot intuïtieve beslissingen kan nemen, zelfs wanneer visuele data geblokkeerd of dubbelzinnig is. Het systeem "vult effectief de gaten op" wanneer sensorgegevens onvolledig zijn, net zoals mensen dat doen.

De technologie is met succes getest in het Eno River State Park in North Carolina, waar de robot vol vertrouwen door dichte bossen, graslanden en grindpaden navigeerde. Volgens hoofdauteur Yanbaihui Liu: "Deze praktijktests bewezen het opmerkelijke vermogen van WildFusion om de begaanbaarheid nauwkeurig te voorspellen, wat de besluitvorming van de robot over veilige routes door uitdagend terrein aanzienlijk verbeterde."

Het onderzoeksteam heeft ook een simulatiemethode ontwikkeld waarmee ze de mogelijkheden van de robot kunnen testen zonder directe menselijke betrokkenheid in de vroege ontwikkelingsfasen, waardoor het onderzoeksproces sneller en schaalbaarder wordt. Deze aanpak betekent een belangrijke vooruitgang in de testmethodologie voor robotica.

Dankzij het modulaire ontwerp heeft WildFusion een breed scala aan potentiële toepassingen buiten bospaden, waaronder rampenbestrijding, inspectie van afgelegen infrastructuur en autonome verkenning. De technologie, ondersteund door DARPA en het Army Research Laboratory, zal in mei worden gepresenteerd op de IEEE International Conference on Robotics and Automation (ICRA 2025) in Atlanta.

Source:

Latest News