杜克大学的研究人员开发出了一套突破性的人工智能系统,使机器人能够以前所未有的效率在复杂的户外环境中自主导航。这一名为WildFusion的AI框架,于2025年5月19日在亚特兰大举办的IEEE国际机器人与自动化大会(ICRA 2025)上正式发布。
与传统仅依赖摄像头或激光雷达视觉数据的机器人不同,WildFusion融合了多种感知输入,构建对环境更全面的理解。该系统基于四足机器人平台,将视觉信息与触觉传感器和接触式麦克风相结合,能够在机器人行走时检测地面振动。这些额外的感知能力让机器人能够实时分辨不同的地表——从干叶的沙沙声到泥土的柔软触感——并即时评估地面稳定性。
“WildFusion为机器人导航与三维建图开启了新篇章。”杜克大学Dickinson Family助理教授陈博远表示,“它让机器人能够更自信地在森林、灾区、越野等非结构化、不可预测的环境中作业。”
WildFusion的核心是一种基于隐式神经表示的深度学习模型。该方法以连续方式建模环境,而非离散点,从而让机器人即便在传感器数据不完整或模糊时,也能做出更智能的决策。该系统已在北卡罗来纳州的Eno River州立公园成功测试,机器人在茂密森林、草地和碎石小径中均表现出卓越的稳定性。
同一天,浦项科技大学(POSTECH)的研究团队也宣布了一项互补创新——新型触觉设备,用于提升工业环境中的安全性。该团队由金基勋教授和博士生朴在贤带领,开发了两种触觉交互界面,使工人能够远程操控机器人,并获得逼真的触觉反馈。
POSTECH的设备包括POstick-KF(动力反馈)和POstick-VF(视觉-触觉反馈),能够精准传递机器人操作物体时感受到的力变化,从而在危险的工业环境下实现更精细、准确的远程作业。
这两项创新均代表了人机交互领域的重要进步。WildFusion项目获得了DARPA和美国陆军研究实验室的资助,显示出其在民用与国防领域的广阔应用前景。