menu
close

WildFusion: AI na Nagbibigay ng Mala-Tao na Pandama sa mga Robot para sa Outdoor Navigation

Nakabuo ang mga mananaliksik mula sa Duke University ng WildFusion, isang makabagong AI framework na pinagsasama ang biswal, panginginig, at pandama upang matulungan ang mga robot na mag-navigate sa masalimuot na mga panlabas na kapaligiran. Inanunsyo noong Mayo 19, 2025 sa IEEE International Conference on Robotics and Automation sa Atlanta, pinapayagan ng teknolohiyang ito ang mga robot na makaramdam at makaangkop sa hindi inaasahang mga lupain gaya ng ginagawa ng tao. Sa parehong araw, inilunsad din ng mga mananaliksik mula POSTECH ang isang karagdagang haptic device na naglalayong pahusayin ang kaligtasan sa mga industriyal na lugar sa pamamagitan ng mas pinahusay na interaksyon ng tao at robot.
WildFusion: AI na Nagbibigay ng Mala-Tao na Pandama sa mga Robot para sa Outdoor Navigation

Lumikha ang mga mananaliksik mula sa Duke University ng isang makabago at rebolusyonaryong AI system na nagbibigay kakayahan sa mga robot na mag-navigate sa mahihirap na panlabas na kapaligiran nang may pambihirang bisa. Ang framework na ito, na tinawag na WildFusion, ay ipinakilala sa IEEE International Conference on Robotics and Automation (ICRA 2025) sa Atlanta noong Mayo 19, 2025.

Hindi tulad ng mga tradisyonal na robot na umaasa lamang sa biswal na datos mula sa mga kamera o LiDAR, pinagsasama ng WildFusion ang iba't ibang uri ng sensory input upang makabuo ng mas malawak at mas malalim na pag-unawa sa kapaligiran. Nakabase sa isang quadruped robot platform, pinagsasama ng sistema ang impormasyong biswal, mga tactile sensor, at contact microphones na nakakakita ng panginginig habang naglalakad ang robot. Sa pamamagitan ng mga karagdagang pandama na ito, nagagawa ng robot na makilala ang iba't ibang uri ng ibabaw—mula sa langitngit ng tuyong dahon hanggang sa malambot na putik—at masuri ang katatagan ng lupa sa aktuwal na oras.

“Binubuksan ng WildFusion ang isang bagong yugto sa robotic navigation at 3D mapping,” ayon kay Boyuan Chen, Dickinson Family Assistant Professor sa Duke University. “Tinutulungan nitong makapag-operate ang mga robot nang mas may kumpiyansa sa mga hindi organisado at hindi inaasahang kapaligiran gaya ng kagubatan, mga disaster zone, at off-road na mga lugar.”

Sa sentro ng WildFusion ay isang deep learning model na nakabase sa implicit neural representations. Ang pamamaraang ito ay patuloy na iniu-modelo ang kapaligiran sa halip na hati-hating punto lamang, kaya't nagagawa ng robot na makapag-desisyon nang mas matalino kahit kulang o hindi malinaw ang datos mula sa mga sensor. Matagumpay na nasubukan ang sistema sa Eno River State Park sa North Carolina, kung saan matagumpay nitong na-navigate ang makakapal na gubat, damuhan, at mga daang may graba nang may pambihirang katatagan.

Sa parehong araw, inanunsyo rin ng mga mananaliksik mula sa Pohang University of Science and Technology (POSTECH) ang isang karagdagang inobasyon—mga bagong haptic device na layuning pahusayin ang kaligtasan sa mga industriyal na lugar. Pinangunahan nina Propesor Keehoon Kim at Ph.D. candidate Jaehyun Park, nakabuo ang kanilang grupo ng dalawang uri ng haptic interface na nagbibigay-daan sa mga manggagawa na malayuang kontrolin ang mga robot habang nakakatanggap ng makatotohanang tactile feedback.

Ang mga device mula POSTECH—ang POstick-KF (Kinesthetic Feedback) at POstick-VF (Visuo-tactile Feedback)—ay nagpapadala ng eksaktong pagbabago ng puwersa na nararanasan ng mga robot habang humahawak ng mga bagay, na nagbibigay-daan para sa mas maselan at eksaktong remote operations sa mga mapanganib na industriyal na kapaligiran.

Ang dalawang inobasyong ito ay mahalagang hakbang sa pag-unlad ng interaksyon ng tao at robot, kung saan ang WildFusion ay pinondohan ng DARPA at Army Research Laboratory, na nagpapakita ng potensyal ng teknolohiya para sa aplikasyon sa sibilyan at depensa.

Source:

Latest News