menu
close

Roboter 'fühlt' wie ein Mensch dank bahnbrechender WildFusion-Technologie

Forschende der Duke University haben mit WildFusion ein innovatives Framework entwickelt, das es Robotern ermöglicht, komplexe Umgebungen mit mehreren Sinnen wie Sehen, Tastsinn und Vibration wahrzunehmen. Diese Technologie erlaubt es vierbeinigen Robotern, anspruchsvolle Gelände wie Wälder und Katastrophengebiete mit menschenähnlichen Wahrnehmungsfähigkeiten zu durchqueren. Das System verarbeitet Sensordaten über spezialisierte Encoder und ein Deep-Learning-Modell und erzeugt so eine kontinuierliche Repräsentation der Umgebung, selbst wenn Sensordaten unvollständig sind.
Roboter 'fühlt' wie ein Mensch dank bahnbrechender WildFusion-Technologie

Roboter haben sich traditionell ausschließlich auf visuelle Informationen verlassen, um sich in ihrer Umgebung zurechtzufinden – was ihre Effektivität in komplexen, unvorhersehbaren Situationen stark einschränkt. Nun haben Forschende der Duke University mit WildFusion ein revolutionäres Framework geschaffen, das die Art und Weise, wie Roboter ihre Umwelt wahrnehmen und mit ihr interagieren, grundlegend verändert.

WildFusion stattet einen vierbeinigen Roboter mit mehreren sensorischen Fähigkeiten aus, die der menschlichen Wahrnehmung nachempfunden sind. Neben den üblichen visuellen Eingaben von Kameras und LiDAR nutzt das System Kontaktmikrofone, die Vibrationen bei jedem Schritt erfassen, taktile Sensoren zur Messung der aufgebrachten Kraft sowie Inertialsensoren, die die Stabilität des Roboters beim Überqueren unebenen Geländes überwachen.

"WildFusion eröffnet ein neues Kapitel in der robotischen Navigation und 3D-Kartierung", erklärt Boyuan Chen, Assistenzprofessor an der Duke University. "Es hilft Robotern, sich sicherer in unstrukturierten, unvorhersehbaren Umgebungen wie Wäldern, Katastrophengebieten und abseits befestigter Wege zu bewegen."

Im Kern von WildFusion steckt ein ausgeklügeltes Deep-Learning-Modell, das auf impliziten neuronalen Repräsentationen basiert. Anders als herkömmliche Methoden, die Umgebungen als Ansammlungen diskreter Punkte betrachten, modelliert dieser Ansatz Oberflächen kontinuierlich. So kann der Roboter intuitive Entscheidungen treffen, selbst wenn visuelle Daten blockiert oder mehrdeutig sind. Das System "füllt die Lücken", wenn Sensordaten fehlen – ganz ähnlich wie beim Menschen.

Die Technologie wurde erfolgreich im Eno River State Park in North Carolina getestet, wo der Roboter souverän durch dichte Wälder, Graslandschaften und Schotterwege navigierte. Laut Yanbaihui Liu, Hauptautor der Studie, "haben diese Praxistests die bemerkenswerte Fähigkeit von WildFusion bewiesen, die Begehbarkeit präzise vorherzusagen und so die Entscheidungsfindung des Roboters auf schwierigen Pfaden erheblich zu verbessern."

Das Forschungsteam hat zudem eine Simulationsmethode entwickelt, mit der sich die Fähigkeiten der Roboter schon in frühen Entwicklungsphasen ohne direkten menschlichen Eingriff testen lassen. Dadurch wird der Forschungsprozess schneller und skalierbarer – ein bedeutender Fortschritt in der Methodik des Robotik-Testings.

Dank seines modularen Designs bietet WildFusion vielfältige Anwendungsmöglichkeiten, die weit über Waldwege hinausgehen – etwa im Katastrophenschutz, bei der Inspektion entlegener Infrastrukturen oder in der autonomen Erkundung. Die von DARPA und dem Army Research Laboratory unterstützte Technologie wird im Mai auf der IEEE International Conference on Robotics and Automation (ICRA 2025) in Atlanta vorgestellt.

Source:

Latest News