デューク大学の研究チームは、WildFusionと呼ばれる革新的なAIフレームワークを開発し、ロボットが人間のように複数の感覚情報を融合して複雑な環境を認識・移動できるようにした。
従来のロボットシステムは主にカメラやLiDARによる視覚情報に依存していたが、WildFusionは視覚に加え、触覚や音響フィードバックも統合する。四足歩行ロボットをベースに、RGBカメラやLiDARに加え、コンタクトマイク、触覚センサー、慣性計測装置を組み合わせて、包括的な環境認識を実現している。
「WildFusionはロボットのナビゲーションと3Dマッピングに新たな章を開きます」と、デューク大学の助教授であるボユアン・チェン氏は説明する。「この技術により、ロボットは森林や災害現場、オフロードなど、構造化されていない予測困難な環境でも自信を持って動作できるようになります。」
WildFusionの特に革新的な点は、感覚データを専用のニューラルエンコーダで処理・解釈できることだ。ロボットが歩行する際、コンタクトマイクは一歩ごとの独特な振動を検知し、乾いた葉や泥など異なる地面を識別する。一方、触覚センサーは足裏の圧力を測定し、安定性を評価する。こうした豊富な感覚情報は、暗黙的ニューラル表現を用いたディープラーニングモデルに入力され、視覚情報が不完全な場合でも連続的な環境マップを構築できる。
この技術はノースカロライナ州のエノ川州立公園で実証され、ロボットは密林や草原、砂利道を高精度で移動した。木漏れ日が視覚センサーを混乱させた場合でも、WildFusionの統合的なアプローチにより安定した足場を正確に予測できた。
この成果は学術研究の枠を超え、捜索救助活動や危険環境の探査、インフラ点検、産業オートメーションなど多様な分野での応用が期待される。今後は熱センサーや湿度センサーなど追加センサーの統合も計画されており、ロボットの環境認識力がさらに強化される見通しだ。
ロボットがますます複雑な現実世界で活躍する中、WildFusionは人間が容易に適応して動作する予測困難な環境でも、ロボットが柔軟かつ効果的に機能できる未来への大きな一歩となる。