menu
close

Googles On-Device-KI bringt autonome Intelligenz in Roboter

Google hat Gemini Robotics On-Device vorgestellt, ein fortschrittliches KI-Modell, das direkt auf Robotern läuft und keine Internetverbindung benötigt. Diese bahnbrechende Technologie ermöglicht es Robotern, komplexe Aufgaben mit größerer Autonomie, schnelleren Reaktionszeiten und verbesserter Funktionalität auch in Umgebungen mit eingeschränkter oder fehlender Konnektivität auszuführen. Aufbauend auf der im März eingeführten Gemini Robotics-Plattform stattet die neue On-Device-Version Maschinen mit ausgefeilter Geschicklichkeit und Generalisierungsfähigkeit bei Aufgaben aus, während sie eine starke Leistung im Vergleich zu cloudbasierten Alternativen beibehält.
Googles On-Device-KI bringt autonome Intelligenz in Roboter

Google DeepMind hat mit der Veröffentlichung von Gemini Robotics On-Device einen bedeutenden Schritt gemacht, um Roboter intelligenter und unabhängiger zu machen. Das leistungsstarke KI-System läuft vollständig auf dem Roboter selbst und nicht in der Cloud.

Vorgestellt am 24. Juni 2025, stellt dieses Vision-Language-Action-(VLA)-Modell einen großen Fortschritt in der Robotik-KI dar, da es die Notwendigkeit einer ständigen Internetverbindung eliminiert. Die Technologie baut auf Googles Gemini Robotics-Plattform auf, die im März eingeführt wurde und Maschinen durch das Gemini-2.0-Framework multimodale Schlussfolgerungen und reales Verständnis ermöglichte.

Das On-Device-Modell liefert trotz lokaler Ausführung beeindruckende Fähigkeiten. In Googles Benchmarks erreicht es ein Leistungsniveau, das nahe an das cloudbasierte Gemini Robotics-Modell heranreicht, und übertrifft andere On-Device-Alternativen, insbesondere bei anspruchsvollen Out-of-Distribution-Aufgaben und komplexen mehrstufigen Anweisungen.

„Da das Modell unabhängig von einem Datennetzwerk arbeitet, ist es besonders für latenzkritische Anwendungen geeignet und gewährleistet Robustheit in Umgebungen mit intermittierender oder fehlender Konnektivität“, erklärte Google DeepMind in seiner Ankündigung.

Gemini Robotics On-Device demonstriert eine starke, allgemeine Geschicklichkeit in verschiedenen Testszenarien. In Vorführungen erledigten Roboter, die mit dem Modell betrieben werden, hochkomplexe Aufgaben wie das Öffnen von Reißverschlüssen an Taschen und das Falten von Kleidung erfolgreich – ganz ohne Cloud-Unterstützung. Das System versteht natürliche Sprachbefehle und kann sich in Echtzeit an wechselnde Umgebungen anpassen.

Google veröffentlicht zudem ein Gemini Robotics SDK, um Entwicklern die Evaluierung und Anpassung des Modells zu erleichtern. Bemerkenswert ist, dass dies das erste VLA-Modell von Google ist, das für das Feintuning zur Verfügung steht – Entwickler können es mit nur 50 bis 100 Demonstrationen auf spezifische Anwendungen anpassen.

Ursprünglich für ALOHA-Roboter trainiert, hat Google das Modell bereits auf andere Plattformen übertragen, darunter den zweiarmigen Franka FR3-Roboter und den humanoiden Apollo-Roboter von Apptronik. Diese Vielseitigkeit deutet auf ein breites Anwendungsspektrum in Branchen von der Fertigung bis zum Gesundheitswesen hin.

Diese Entwicklung erfolgt vor dem Hintergrund eines zunehmenden Wettbewerbs im Bereich KI-gestützter Robotik, in dem Unternehmen wie Nvidia, Hugging Face und RLWRLD an grundlegenden Modellen für Roboter arbeiten. Googles On-Device-Ansatz adressiert eine entscheidende Einschränkung im Feld, indem Roboter auch dort effektiv arbeiten können, wo Cloud-Konnektivität unpraktisch oder unmöglich ist.

Source:

Latest News