menu
close

WildFusion AI Geeft Robots Mensachtige Zintuiglijke Waarneming

Onderzoekers van Duke University hebben WildFusion ontwikkeld, een baanbrekend AI-framework dat robots in staat stelt complexe omgevingen te navigeren door visie, trillingen en aanraking te integreren. Deze multisensorische aanpak maakt het mogelijk voor viervoetige robots om uitdagend terrein zoals bossen en rampgebieden met ongekende precisie te doorkruisen. De technologie betekent een grote vooruitgang in robotische waarneming en bootst na hoe mensen meerdere zintuigen gebruiken om hun omgeving te begrijpen en ermee te interageren.
WildFusion AI Geeft Robots Mensachtige Zintuiglijke Waarneming

Onderzoekers van Duke University hebben een revolutionair AI-framework ontwikkeld genaamd WildFusion, dat de manier waarop robots complexe omgevingen waarnemen en navigeren transformeert door meerdere zintuiglijke input te combineren, vergelijkbaar met menselijke perceptie.

In tegenstelling tot traditionele robotsystemen die voornamelijk vertrouwen op visuele data van camera’s of LiDAR, integreert WildFusion visuele informatie met tactiele en akoestische feedback. Het systeem, gebouwd op een viervoetige robot, combineert RGB-camera’s en LiDAR met contactmicrofoons, tactiele sensoren en traagheidsmeeteenheden om een allesomvattend beeld van de omgeving te creëren.

"WildFusion opent een nieuw hoofdstuk in robotnavigatie en 3D-mapping," legt Boyuan Chen uit, universitair docent aan Duke University. "Het helpt robots om zelfverzekerder te opereren in ongestructureerde, onvoorspelbare omgevingen zoals bossen, rampgebieden en offroad-terrein."

Wat WildFusion bijzonder innovatief maakt, is het vermogen om zintuiglijke data te verwerken en te interpreteren via gespecialiseerde neurale encoders. Terwijl de robot loopt, detecteren contactmicrofoons unieke trillingen bij elke stap—waarmee oppervlakken als droge bladeren of modder van elkaar onderscheiden kunnen worden—terwijl tactiele sensoren de druk op de voeten meten om stabiliteit te beoordelen. Deze rijke zintuiglijke informatie wordt ingevoerd in een deep learning-model met behulp van impliciete neurale representaties, waardoor de robot continue omgevingskaarten kan opbouwen, zelfs wanneer visuele data onvolledig is.

De technologie werd met succes getest in het Eno River State Park in North Carolina, waar de robot met opmerkelijke precisie door dichte bossen, graslanden en grindpaden navigeerde. Wanneer gefilterd zonlicht de visuele sensoren in de war bracht, kon WildFusion dankzij de geïntegreerde aanpak toch nauwkeurig stabiele voetplaatsen voorspellen.

De implicaties reiken veel verder dan academisch onderzoek. WildFusion zou toepassingen in zoek- en reddingsoperaties, verkenning van gevaarlijke omgevingen, inspectie van infrastructuur en industriële automatisering kunnen revolutioneren. Toekomstige ontwikkelingen zijn gericht op het toevoegen van extra sensoren, zoals thermische en vochtigheidsdetectoren, om het omgevingsbewustzijn van robots verder te vergroten.

Nu robots steeds meer worden geïntegreerd in complexe, echte scenario’s, betekent WildFusion een belangrijke stap richting machines die zich kunnen aanpassen en effectief kunnen functioneren in de onvoorspelbare omgevingen waarin mensen zich moeiteloos bewegen.

Source:

Latest News