menu
close

WildFusion: KI verleiht Robotern menschenähnliche Sinne für die Navigation im Freien

Forschende der Duke University haben mit WildFusion ein innovatives KI-Framework entwickelt, das Sehen, Vibration und Tastsinn kombiniert, um Robotern die Navigation in komplexen Außenumgebungen zu ermöglichen. Die am 19. Mai 2025 auf der IEEE International Conference on Robotics and Automation in Atlanta vorgestellte bahnbrechende Technologie befähigt Roboter, unvorhersehbare Gelände ähnlich wie Menschen wahrzunehmen und sich daran anzupassen. Am selben Tag präsentierten POSTECH-Forschende ein ergänzendes haptisches Gerät, das durch verbesserte Mensch-Roboter-Interaktion die Sicherheit in industriellen Umgebungen erhöhen soll.
WildFusion: KI verleiht Robotern menschenähnliche Sinne für die Navigation im Freien

Forschende der Duke University haben ein bahnbrechendes KI-System entwickelt, das Robotern die Fähigkeit verleiht, herausfordernde Außenumgebungen mit bislang unerreichter Effektivität zu durchqueren. Das Framework mit dem Namen WildFusion wurde am 19. Mai 2025 auf der IEEE International Conference on Robotics and Automation (ICRA 2025) in Atlanta vorgestellt.

Im Gegensatz zu herkömmlichen Robotern, die ausschließlich auf visuelle Daten von Kameras oder LiDAR setzen, integriert WildFusion verschiedene sensorische Eingaben, um ein umfassenderes Verständnis der Umgebung zu ermöglichen. Das System basiert auf einer vierbeinigen Roboterplattform und kombiniert visuelle Informationen mit taktilen Sensoren sowie Kontaktmikrofonen, die Vibrationen beim Gehen des Roboters erfassen. Diese zusätzlichen Sinne erlauben es dem Roboter, zwischen unterschiedlichen Oberflächen zu unterscheiden – vom Knirschen trockener Blätter bis zum weichen Nachgeben von Schlamm – und die Stabilität der Umgebung in Echtzeit einzuschätzen.

"WildFusion eröffnet ein neues Kapitel in der robotischen Navigation und 3D-Kartierung", sagt Boyuan Chen, Dickinson Family Assistant Professor an der Duke University. "Es hilft Robotern, selbstbewusster in unstrukturierten, unvorhersehbaren Umgebungen wie Wäldern, Katastrophengebieten und unwegsamem Gelände zu agieren."

Im Kern von WildFusion steht ein Deep-Learning-Modell, das auf impliziten neuronalen Repräsentationen basiert. Dieser Ansatz modelliert die Umgebung kontinuierlich statt als diskrete Punkte, wodurch der Roboter auch bei unvollständigen oder mehrdeutigen Sensordaten intelligentere Entscheidungen treffen kann. Das System wurde erfolgreich im Eno River State Park in North Carolina getestet, wo es dichte Wälder, Grasflächen und Schotterwege mit bemerkenswerter Stabilität durchquerte.

Am selben Tag stellten Forschende der Pohang University of Science and Technology (POSTECH) eine ergänzende Innovation vor: neuartige haptische Geräte zur Erhöhung der Sicherheit in industriellen Umgebungen. Unter Leitung von Professor Keehoon Kim und Doktorand Jaehyun Park entwickelte das Team zwei Arten von haptischen Schnittstellen, die es Arbeitenden ermöglichen, Roboter aus der Ferne zu steuern und dabei realistische taktile Rückmeldungen zu erhalten.

Die POSTECH-Geräte – POstick-KF (Kinästhetisches Feedback) und POstick-VF (Visuo-taktiles Feedback) – übertragen präzise Kraftveränderungen, die Roboter beim Manipulieren von Objekten erfahren, und ermöglichen so sensiblere und genauere Fernsteuerungen in gefährlichen Industrieumgebungen.

Beide Innovationen stellen bedeutende Fortschritte in der Mensch-Roboter-Interaktion dar. WildFusion wird von DARPA und dem Army Research Laboratory gefördert, was das Potenzial der Technologie für zivile wie militärische Anwendungen unterstreicht.

Source:

Latest News