従来のロボットは、周囲を認識する際に主に視覚情報のみに頼っており、複雑かつ予測困難な環境ではその有効性に大きな制限があった。デューク大学の研究者チームは、ロボットが世界を認識し、相互作用する方法を根本から変える画期的なフレームワーク「WildFusion」を開発した。
WildFusionは、四足歩行ロボットに人間の知覚を模倣した複数の感覚機能を搭載する。カメラやLiDARによる標準的な視覚入力に加え、各ステップの振動を検知するコンタクトマイク、加わる力を測定する触覚センサー、不整地を移動する際の安定性を追跡する慣性センサーなどを組み合わせている。
「WildFusionは、ロボットのナビゲーションや3Dマッピングに新たな時代を切り開きます」と、デューク大学の助教授であるボユアン・チェン氏は説明する。「この技術により、ロボットは森林や災害現場、オフロードなど、構造化されていない予測困難な環境でも自信を持って行動できるようになります。」
WildFusionの中核には、暗黙的ニューラル表現(implicit neural representations)に基づく高度な深層学習モデルがある。従来の手法が環境を離散的な点の集合として扱うのに対し、このアプローチでは表面を連続的にモデル化し、視覚データが遮られたり曖昧な場合でも直感的な判断を可能にする。センサーデータが不完全な際も、人間と同様に「空白を埋める」ことができるのが特徴だ。
この技術は、ノースカロライナ州のエノ川州立公園で実地試験され、ロボットは密集した森林や草原、砂利道を自信を持って移動した。筆頭著者であるリュウ・ヤンバイフイ氏は「これらの実地テストにより、WildFusionが困難な地形でも安全な経路を高精度に予測し、ロボットの意思決定能力を大幅に向上させることが実証されました」と述べている。
研究チームはまた、初期開発段階で人間が直接関与せずにロボットの能力を検証できるシミュレーション手法も開発しており、研究プロセスの高速化とスケーラビリティ向上を実現している。このアプローチは、ロボティクスのテスト手法においても大きな前進となる。
モジュール設計を採用するWildFusionは、森林トレイル以外にも災害対応や遠隔インフラの点検、自律探査など幅広い応用が期待されている。この技術はDARPAおよび米陸軍研究所の支援を受けており、2025年5月にアトランタで開催されるIEEE国際ロボット・オートメーション会議(ICRA 2025)で発表される予定だ。