menu
close

WildFusion KI verleiht Robotern menschliche Sinneswahrnehmung

Forschende der Duke University haben mit WildFusion ein bahnbrechendes KI-Framework entwickelt, das es Robotern ermöglicht, komplexe Umgebungen durch die Integration von Sehen, Vibration und Tastsinn zu navigieren. Dieser multisensorische Ansatz erlaubt es vierbeinigen Robotern, anspruchsvolles Gelände wie Wälder und Katastrophengebiete mit bisher unerreichter Präzision zu durchqueren. Die Technologie stellt einen bedeutenden Fortschritt in der robotischen Wahrnehmung dar, indem sie nachahmt, wie Menschen mehrere Sinne nutzen, um ihre Umgebung zu verstehen und mit ihr zu interagieren.
WildFusion KI verleiht Robotern menschliche Sinneswahrnehmung

Forschende der Duke University haben mit WildFusion ein revolutionäres KI-Framework geschaffen, das die Wahrnehmung und Navigation von Robotern in komplexen Umgebungen grundlegend verändert, indem es mehrere Sinneseindrücke ähnlich der menschlichen Wahrnehmung miteinander verschmilzt.

Im Gegensatz zu herkömmlichen Robotersystemen, die hauptsächlich auf visuelle Daten aus Kameras oder LiDAR setzen, integriert WildFusion visuelle Eindrücke mit taktilem und akustischem Feedback. Das System, das auf einem vierbeinigen Roboter basiert, kombiniert RGB-Kameras und LiDAR mit Kontaktmikrofonen, taktilen Sensoren und Inertialmesseinheiten, um ein umfassendes Umweltbewusstsein zu schaffen.

„WildFusion eröffnet ein neues Kapitel in der robotischen Navigation und 3D-Kartierung“, erklärt Boyuan Chen, Assistenzprofessor an der Duke University. „Es hilft Robotern, sich sicherer in unstrukturierten, unvorhersehbaren Umgebungen wie Wäldern, Katastrophengebieten und unwegsamem Gelände zu bewegen.“

Besonders innovativ an WildFusion ist die Fähigkeit, sensorische Daten durch spezialisierte neuronale Encoder zu verarbeiten und zu interpretieren. Während der Roboter läuft, erfassen Kontaktmikrofone einzigartige Vibrationen bei jedem Schritt – und unterscheiden so beispielsweise zwischen trockenen Blättern oder Matsch –, während taktile Sensoren den Fußdruck messen, um die Stabilität zu beurteilen. Diese reichhaltigen Sinnesinformationen fließen in ein Deep-Learning-Modell mit impliziten neuronalen Repräsentationen ein, sodass der Roboter auch dann kontinuierliche Umweltkarten erstellen kann, wenn visuelle Daten unvollständig sind.

Die Technologie wurde erfolgreich im Eno River State Park in North Carolina getestet, wo der Roboter dichte Wälder, Grasflächen und Kieswege mit bemerkenswerter Präzision durchquerte. Selbst wenn gesprenkeltes Sonnenlicht die visuellen Sensoren verwirrte, konnte WildFusions integrierter Ansatz stabile Trittflächen zuverlässig vorhersagen.

Die Auswirkungen reichen weit über die akademische Forschung hinaus. WildFusion könnte Anwendungen in der Suche und Rettung, der Erkundung gefährlicher Umgebungen, der Infrastrukturinspektion und der industriellen Automatisierung revolutionieren. Zukünftige Entwicklungen zielen darauf ab, zusätzliche Sensoren wie Wärme- und Feuchtigkeitsdetektoren zu integrieren, um das Umweltbewusstsein der Roboter weiter zu steigern.

Da Roboter zunehmend in komplexe reale Szenarien integriert werden, stellt WildFusion einen bedeutenden Schritt hin zu Maschinen dar, die sich anpassen und effektiv in den unvorhersehbaren Umgebungen funktionieren können, die Menschen mit Leichtigkeit meistern.

Source:

Latest News