menu
close

WildFusion AI zapewnia robotom ludzkopodobne postrzeganie zmysłowe

Naukowcy z Uniwersytetu Duke opracowali WildFusion – przełomowy system sztucznej inteligencji, który umożliwia robotom poruszanie się w złożonych środowiskach poprzez integrację wzroku, wibracji i dotyku. Wielozmysłowe podejście pozwala czworonożnym robotom pokonywać trudne tereny, takie jak lasy czy strefy katastrof, z niespotykaną dotąd precyzją. Technologia ta stanowi istotny postęp w percepcji robotów, naśladując sposób, w jaki ludzie wykorzystują wiele zmysłów do rozumienia i interakcji z otoczeniem.
WildFusion AI zapewnia robotom ludzkopodobne postrzeganie zmysłowe

Naukowcy z Uniwersytetu Duke stworzyli rewolucyjny system sztucznej inteligencji o nazwie WildFusion, który zmienia sposób, w jaki roboty postrzegają i nawigują w złożonych środowiskach, łącząc wiele bodźców zmysłowych na wzór ludzkiej percepcji.

W przeciwieństwie do tradycyjnych systemów robotycznych, które opierają się głównie na danych wizualnych z kamer lub LiDAR-u, WildFusion integruje obraz z informacjami dotykowymi i akustycznymi. System, zbudowany na platformie czworonożnego robota, łączy kamery RGB i LiDAR z mikrofonami kontaktowymi, czujnikami dotyku oraz jednostkami pomiaru inercyjnego, tworząc kompleksową świadomość otoczenia.

„WildFusion otwiera nowy rozdział w nawigacji robotów i mapowaniu 3D” – wyjaśnia Boyuan Chen, adiunkt na Uniwersytecie Duke. „Pomaga robotom działać pewniej w nieuporządkowanych, nieprzewidywalnych środowiskach, takich jak lasy, strefy katastrof czy tereny poza drogami”.

To, co czyni WildFusion szczególnie innowacyjnym, to zdolność do przetwarzania i interpretowania danych zmysłowych za pomocą wyspecjalizowanych enkoderów neuronowych. Podczas chodzenia robota, mikrofony kontaktowe wykrywają unikalne wibracje każdego kroku – rozróżniając powierzchnie, takie jak suche liście czy błoto – a czujniki dotyku mierzą nacisk stóp, oceniając stabilność. Te bogate informacje zmysłowe są przekazywane do modelu głębokiego uczenia wykorzystującego niejawne reprezentacje neuronowe, co pozwala robotowi budować ciągłe mapy otoczenia nawet wtedy, gdy dane wizualne są niepełne.

Technologia została pomyślnie przetestowana w parku stanowym Eno River w Karolinie Północnej, gdzie robot z niezwykłą precyzją poruszał się po gęstych lasach, łąkach i żwirowych ścieżkach. Gdy rozproszone światło słoneczne dezorientowało czujniki wizualne, zintegrowane podejście WildFusion wciąż trafnie przewidywało stabilne miejsca do postawienia stóp.

Konsekwencje wykraczają daleko poza badania akademickie. WildFusion może zrewolucjonizować zastosowania w akcjach poszukiwawczo-ratowniczych, eksploracji niebezpiecznych środowisk, inspekcji infrastruktury czy automatyzacji przemysłowej. Przyszłe prace zakładają włączenie dodatkowych czujników, takich jak detektory temperatury czy wilgotności, jeszcze bardziej zwiększając świadomość otoczenia robotów.

W miarę jak roboty coraz częściej trafiają do złożonych, rzeczywistych scenariuszy, WildFusion stanowi istotny krok w kierunku tworzenia maszyn, które potrafią adaptować się i skutecznie działać w nieprzewidywalnych środowiskach, z jakimi ludzie radzą sobie z łatwością.

Source:

Latest News