Onderzoekers van Duke University hebben een baanbrekend AI-systeem ontwikkeld dat robots in staat stelt om met ongekende effectiviteit uitdagende buitenomgevingen te navigeren. Het framework, genaamd WildFusion, werd gepresenteerd op de IEEE International Conference on Robotics and Automation (ICRA 2025) in Atlanta op 19 mei 2025.
In tegenstelling tot traditionele robots die uitsluitend vertrouwen op visuele data van camera’s of LiDAR, integreert WildFusion meerdere zintuiglijke input om een vollediger beeld van de omgeving te creëren. Het systeem is gebouwd op een viervoetig robotplatform en combineert visuele informatie met tactiele sensoren en contactmicrofoons die trillingen detecteren terwijl de robot loopt. Dankzij deze extra zintuigen kan de robot verschillende oppervlakken onderscheiden—van het knisperen van droge bladeren tot het zachte geplet van modder—en de stabiliteit in real-time beoordelen.
“WildFusion opent een nieuw hoofdstuk in robotnavigatie en 3D-mapping,” zegt Boyuan Chen, Dickinson Family Assistant Professor aan Duke University. “Het helpt robots om zelfverzekerder te opereren in ongestructureerde, onvoorspelbare omgevingen zoals bossen, rampgebieden en offroad-terrein.”
De kern van WildFusion wordt gevormd door een deep learning-model gebaseerd op impliciete neurale representaties. Deze benadering modelleert de omgeving continu in plaats van als losse punten, waardoor de robot slimmere beslissingen kan nemen, zelfs wanneer sensorgegevens onvolledig of dubbelzinnig zijn. Het systeem werd met succes getest in Eno River State Park in North Carolina, waar het met opmerkelijke stabiliteit door dichte bossen, graslanden en grindpaden navigeerde.
Op dezelfde dag kondigden onderzoekers van de Pohang University of Science and Technology (POSTECH) een aanvullende innovatie aan—nieuwe haptische apparaten die de veiligheid in industriële omgevingen moeten vergroten. Onder leiding van professor Keehoon Kim en promovendus Jaehyun Park ontwikkelde het team twee soorten haptische interfaces waarmee werknemers op afstand robots kunnen bedienen terwijl ze realistische tactiele feedback ontvangen.
De POSTECH-apparaten—POstick-KF (Kinesthetische Feedback) en POstick-VF (Visuo-tactiele Feedback)—zenden nauwkeurige krachtveranderingen door die robots ervaren bij het manipuleren van objecten, waardoor fijnere en nauwkeurigere bediening op afstand in gevaarlijke industriële omgevingen mogelijk wordt.
Beide innovaties vertegenwoordigen belangrijke stappen voorwaarts in de interactie tussen mens en robot. WildFusion wordt gefinancierd door DARPA en het Army Research Laboratory, wat het potentieel van de technologie onderstreept voor zowel civiele als defensietoepassingen.