Onderzoekers van Duke University hebben een revolutionair AI-framework ontwikkeld genaamd WildFusion, dat de manier waarop robots complexe omgevingen waarnemen en navigeren transformeert door meerdere zintuiglijke input te combineren, vergelijkbaar met menselijke perceptie.
In tegenstelling tot traditionele robotsystemen die voornamelijk vertrouwen op visuele data van camera’s of LiDAR, integreert WildFusion visuele informatie met tactiele en akoestische feedback. Het systeem, gebouwd op een viervoetige robot, combineert RGB-camera’s en LiDAR met contactmicrofoons, tactiele sensoren en traagheidsmeeteenheden om een allesomvattend beeld van de omgeving te creëren.
"WildFusion opent een nieuw hoofdstuk in robotnavigatie en 3D-mapping," legt Boyuan Chen uit, universitair docent aan Duke University. "Het helpt robots om zelfverzekerder te opereren in ongestructureerde, onvoorspelbare omgevingen zoals bossen, rampgebieden en offroad-terrein."
Wat WildFusion bijzonder innovatief maakt, is het vermogen om zintuiglijke data te verwerken en te interpreteren via gespecialiseerde neurale encoders. Terwijl de robot loopt, detecteren contactmicrofoons unieke trillingen bij elke stap—waarmee oppervlakken als droge bladeren of modder van elkaar onderscheiden kunnen worden—terwijl tactiele sensoren de druk op de voeten meten om stabiliteit te beoordelen. Deze rijke zintuiglijke informatie wordt ingevoerd in een deep learning-model met behulp van impliciete neurale representaties, waardoor de robot continue omgevingskaarten kan opbouwen, zelfs wanneer visuele data onvolledig is.
De technologie werd met succes getest in het Eno River State Park in North Carolina, waar de robot met opmerkelijke precisie door dichte bossen, graslanden en grindpaden navigeerde. Wanneer gefilterd zonlicht de visuele sensoren in de war bracht, kon WildFusion dankzij de geïntegreerde aanpak toch nauwkeurig stabiele voetplaatsen voorspellen.
De implicaties reiken veel verder dan academisch onderzoek. WildFusion zou toepassingen in zoek- en reddingsoperaties, verkenning van gevaarlijke omgevingen, inspectie van infrastructuur en industriële automatisering kunnen revolutioneren. Toekomstige ontwikkelingen zijn gericht op het toevoegen van extra sensoren, zoals thermische en vochtigheidsdetectoren, om het omgevingsbewustzijn van robots verder te vergroten.
Nu robots steeds meer worden geïntegreerd in complexe, echte scenario’s, betekent WildFusion een belangrijke stap richting machines die zich kunnen aanpassen en effectief kunnen functioneren in de onvoorspelbare omgevingen waarin mensen zich moeiteloos bewegen.