デューク大学の研究者チームは、ロボットがこれまでにない高い効果で困難な屋外環境を移動できる画期的なAIシステム「WildFusion」を開発した。このフレームワークは、2025年5月19日にアトランタで開催されたIEEE国際ロボティクス・オートメーション会議(ICRA 2025)で発表された。
従来のロボットはカメラやLiDARなど視覚情報に依存していたが、WildFusionは複数の感覚情報を統合し、環境をより包括的に把握する。四足歩行ロボットをベースに、視覚情報に加え、触覚センサーや歩行時の振動を検知するコンタクトマイクを組み合わせている。これにより、ロボットは乾いた落ち葉のパリパリとした感触から泥の柔らかいぬめりまで、さまざまな地面の違いを判別し、リアルタイムで安定性を評価できる。
「WildFusionはロボットのナビゲーションと3Dマッピングに新たな章を開きます」と、デューク大学ディキンソンファミリー助教授のボユアン・チェン氏は語る。「森林や災害現場、オフロードなど、構造化されていない予測不能な環境でもロボットが自信を持って動作できるようになります。」
WildFusionの中核には、暗黙的ニューラル表現に基づくディープラーニングモデルがある。この手法は環境を離散的な点ではなく連続的にモデル化するため、センサーデータが不完全または曖昧な場合でも、ロボットがより賢明な判断を下せる。ノースカロライナ州エノリバー州立公園での実証実験では、密集した森林や草原、砂利道を安定して移動することに成功した。
同日、浦項工科大学(POSTECH)の研究チームも産業現場での安全性向上を目指した新しいハプティックデバイスを発表した。キム・キフン教授と博士課程のパク・ジェヒョン氏が率いるチームは、作業者がロボットを遠隔操作しながらリアルな触覚フィードバックを受け取れる2種類のハプティックインターフェースを開発した。
POSTECHのデバイス「POstick-KF(運動感覚フィードバック)」と「POstick-VF(視触覚フィードバック)」は、ロボットが物体を操作する際に受ける力の変化を精密に伝達し、危険な産業環境での繊細かつ正確な遠隔作業を可能にする。
これら両方のイノベーションは、人とロボットの協調作業における大きな進展を示している。WildFusionはDARPAおよび米陸軍研究所の資金提供を受けており、民間・防衛の両分野での応用が期待されている。