长期以来,机器人主要依赖视觉信息来导航,这极大限制了它们在复杂和不可预测环境中的表现。如今,杜克大学的研究团队创造性地提出了 WildFusion 框架,从根本上改变了机器人感知和与外界互动的方式。
WildFusion 为四足机器人配备了多种感知能力,模拟了人类的感知过程。除了常规的摄像头和激光雷达视觉输入,系统还集成了接触式麦克风,用于检测每一步产生的振动,触觉传感器用于测量施加的力,以及惯性传感器用于追踪机器人在崎岖地形上的稳定性。
“WildFusion 为机器人导航和三维建图开启了新篇章,”杜克大学助理教授陈博远表示,“它帮助机器人在森林、灾害区和越野地形等非结构化、不可预测的环境中更加自信地运行。”
WildFusion 的核心是一种基于隐式神经表征的先进深度学习模型。与传统方法将环境视为离散点集合不同,这种方法能够连续建模表面,使机器人即使在视觉数据受阻或模糊时,也能做出直观决策。系统能够在传感器数据不完整时“自动补全”,类似于人类的感知方式。
该技术已在北卡罗来纳州 Eno River 州立公园进行了实地测试,机器人能够自信地穿越密林、草地和碎石小径。首席学生作者刘彦百慧表示:“这些真实环境测试证明了 WildFusion 在准确预测可通行性方面的卓越能力,显著提升了机器人在复杂地形中选择安全路径的决策水平。”
研究团队还开发了一种仿真方法,使他们在早期开发阶段无需人工直接参与即可测试机器人的能力,从而加快了研究进程并提升了可扩展性。这一方法代表了机器人测试方法学的重要进步。
凭借模块化设计,WildFusion 在森林小径之外还拥有广阔的应用前景,包括灾害响应、偏远基础设施巡检和自主探索等领域。该技术获得了 DARPA 和美国陆军研究实验室的支持,并将于今年五月在亚特兰大举行的 IEEE 国际机器人与自动化大会(ICRA 2025)上正式发布。