로봇은 전통적으로 주변 환경을 탐색할 때 주로 시각 정보에 의존해 왔으며, 이로 인해 복잡하고 예측 불가능한 환경에서는 효과가 크게 제한됐다. 이제 듀크대학교 연구진은 로봇이 세상을 인지하고 상호작용하는 방식을 근본적으로 바꾸는 혁신적 프레임워크 '와일드퓨전(WildFusion)'을 개발했다.
와일드퓨전은 사족보행 로봇에 인간의 감각을 모방한 다양한 센서 기능을 탑재한다. 카메라와 라이다(LiDAR) 등 표준 시각 입력 외에도, 각 발걸음에서 발생하는 진동을 감지하는 접촉 마이크, 가해지는 힘을 측정하는 촉각 센서, 그리고 불규칙한 지형 위에서 로봇의 안정성을 추적하는 관성 센서가 포함된다.
"와일드퓨전은 로봇 내비게이션과 3D 맵핑의 새로운 장을 열었습니다."라고 듀크대학교 보위안 첸(Boyuan Chen) 조교수는 설명했다. "이 기술은 로봇이 숲, 재난 현장, 오프로드 지형 등 구조화되지 않고 예측 불가능한 환경에서도 더욱 자신감 있게 작동할 수 있도록 돕습니다."
와일드퓨전의 핵심에는 암시적 신경 표현(implicit neural representations)에 기반한 정교한 딥러닝 모델이 있다. 기존 방식이 환경을 개별 점들의 집합으로 취급하는 것과 달리, 이 접근법은 표면을 연속적으로 모델링해 시각 데이터가 차단되거나 모호할 때도 로봇이 직관적으로 결정을 내릴 수 있게 한다. 시스템은 센서 데이터가 불완전할 때도 인간처럼 '빈틈을 메워' 환경을 파악한다.
이 기술은 노스캐롤라이나주 이노 리버 주립공원(Eno River State Park)에서 실제 테스트를 거쳤으며, 로봇은 울창한 숲, 초원, 자갈길 등 다양한 환경을 자신 있게 주행했다. 주저자인 류옌바이후이(Yanbaihui Liu) 학생은 "이러한 실제 테스트를 통해 와일드퓨전이 험난한 지형에서 안전한 경로를 정확히 예측하고, 로봇의 의사결정 능력을 크게 향상시킨다는 점이 입증됐습니다."라고 밝혔다.
연구팀은 또한 초기 개발 단계에서 인간의 직접적인 개입 없이 로봇의 성능을 시험할 수 있는 시뮬레이션 방법도 개발해, 연구 과정을 더욱 빠르고 확장성 있게 만들었다. 이 접근법은 로봇 테스트 방법론에서도 중요한 진전을 의미한다.
모듈형 설계를 바탕으로, 와일드퓨전은 숲길을 넘어 재난 대응, 원격 인프라 점검, 자율 탐사 등 다양한 분야에 적용될 잠재력을 지닌다. 이 기술은 DARPA와 미 육군 연구소의 지원을 받았으며, 오는 5월 애틀랜타에서 열리는 IEEE 국제 로봇 및 자동화 학회(ICRA 2025)에서 발표될 예정이다.