menu
close

Google's On-Device AI brengt autonome intelligentie naar robots

Google heeft Gemini Robotics On-Device gelanceerd, een geavanceerd AI-model dat direct op robots draait zonder internetverbinding. Deze baanbrekende technologie stelt robots in staat om complexe taken autonomer uit te voeren, met snellere reactietijden en verbeterde functionaliteit in omgevingen met beperkte of geen connectiviteit. Gebaseerd op het in maart geïntroduceerde Gemini Robotics-platform, biedt de nieuwe on-device versie machines geavanceerde behendigheid en taakgeneralisatie, terwijl het sterke prestaties behoudt ten opzichte van cloud-gebaseerde alternatieven.
Google's On-Device AI brengt autonome intelligentie naar robots

Google DeepMind heeft een belangrijke stap gezet richting slimmere en onafhankelijkere robots met de introductie van Gemini Robotics On-Device, een krachtig AI-systeem dat volledig op de robot zelf draait in plaats van in de cloud.

Op 24 juni 2025 werd dit vision-language-action (VLA) model onthuld, waarmee een grote vooruitgang in robotica-AI wordt geboekt doordat constante internetverbinding niet langer noodzakelijk is. De technologie bouwt voort op het in maart gelanceerde Gemini Robotics-platform, dat via het Gemini 2.0-framework multimodale redenering en real-world begrip naar machines bracht.

Het on-device model levert indrukwekkende prestaties, ondanks dat het lokaal draait. Volgens benchmarks van Google presteert het bijna op het niveau van het cloud-gebaseerde Gemini Robotics-model en overtreft het andere on-device alternatieven, vooral bij uitdagende out-of-distribution-taken en complexe meerstapsinstructies.

"Omdat het model onafhankelijk van een datanetwerk werkt, is het geschikt voor toepassingen die gevoelig zijn voor latentie en zorgt het voor robuustheid in omgevingen met intermitterende of geen connectiviteit," aldus Google DeepMind in de aankondiging.

Gemini Robotics On-Device toont sterke algemene behendigheid in uiteenlopende testsituaties. In demonstraties wisten robots met dit model zeer behendige taken uit te voeren, zoals het openritsen van tassen en het vouwen van kleding, zonder hulp van de cloud. Het systeem begrijpt natuurlijke taalcommando's en past zich in realtime aan veranderende omgevingen aan.

Google brengt ook een Gemini Robotics SDK uit om ontwikkelaars te helpen het model te evalueren en aan te passen. Opvallend is dat dit het eerste VLA-model is dat Google beschikbaar stelt voor fine-tuning, waardoor ontwikkelaars het kunnen aanpassen aan specifieke toepassingen met slechts 50 tot 100 demonstraties.

Het model werd aanvankelijk getraind voor ALOHA-robots, maar Google heeft het inmiddels ook geschikt gemaakt voor andere platforms, waaronder de bi-arm Franka FR3-robot en de Apollo-humanoïde robot van Apptronik. Deze veelzijdigheid wijst op brede toepassingsmogelijkheden, van productie tot gezondheidszorg.

Deze ontwikkeling komt op een moment dat de concurrentie in AI-robotica toeneemt, met bedrijven als Nvidia, Hugging Face en RLWRLD die allemaal werken aan fundamentele modellen voor robots. Google's on-device benadering pakt een belangrijk knelpunt aan door robots effectief te laten functioneren in omgevingen waar cloudconnectiviteit niet haalbaar is.

Source:

Latest News