menu
close

La IA en Dispositivo de Google lleva inteligencia autónoma a los robots

Google ha lanzado Gemini Robotics On-Device, un avanzado modelo de IA que se ejecuta directamente en los robots sin requerir conexión a internet. Esta tecnología revolucionaria permite a los robots realizar tareas complejas con mayor autonomía, tiempos de respuesta más rápidos y mejor funcionalidad en entornos con conectividad limitada o nula. Basado en la plataforma Gemini Robotics presentada en marzo, la nueva versión en dispositivo dota a las máquinas de sofisticadas capacidades de destreza y generalización de tareas, manteniendo un alto rendimiento en comparación con las alternativas basadas en la nube.
La IA en Dispositivo de Google lleva inteligencia autónoma a los robots

Google DeepMind ha dado un paso importante hacia la creación de robots más inteligentes e independientes con el lanzamiento de Gemini Robotics On-Device, un potente sistema de IA que opera completamente en el propio robot en lugar de depender de la nube.

Presentado el 24 de junio de 2025, este modelo de visión-lenguaje-acción (VLA) representa un gran avance en la IA para robótica al eliminar la necesidad de conectividad constante a internet. La tecnología se basa en la plataforma Gemini Robotics de Google, lanzada en marzo, que incorporó razonamiento multimodal y comprensión del mundo real a las máquinas mediante el marco Gemini 2.0.

El modelo en dispositivo ofrece capacidades impresionantes a pesar de ejecutarse localmente. Según los estándares de Google, su desempeño es cercano al modelo Gemini Robotics basado en la nube y supera a otras alternativas en dispositivo, especialmente en tareas desafiantes fuera de distribución y en instrucciones complejas de varios pasos.

"Dado que el modelo opera de manera independiente a una red de datos, es útil para aplicaciones sensibles a la latencia y garantiza robustez en entornos con conectividad intermitente o nula", señaló Google DeepMind en su anuncio.

Gemini Robotics On-Device demuestra una gran destreza de propósito general en diversos escenarios de prueba. En demostraciones, los robots impulsados por este modelo completaron con éxito tareas altamente complejas como abrir cierres de bolsas y doblar ropa sin asistencia de la nube. El sistema puede comprender comandos en lenguaje natural y adaptarse en tiempo real a entornos cambiantes.

Google también está lanzando un SDK de Gemini Robotics para ayudar a los desarrolladores a evaluar y personalizar el modelo. Cabe destacar que este es el primer modelo VLA que Google pone a disposición para ajuste fino, permitiendo a los desarrolladores adaptarlo a aplicaciones específicas con tan solo 50 a 100 demostraciones.

Inicialmente entrenado para robots ALOHA, Google ya ha adaptado el modelo para funcionar con otras plataformas, incluyendo el robot de dos brazos Franka FR3 y el robot humanoide Apollo de Apptronik. Esta versatilidad sugiere un amplio potencial de aplicaciones en industrias que van desde la manufactura hasta la salud.

Este desarrollo surge en un contexto de creciente competencia en robótica impulsada por IA, con empresas como Nvidia, Hugging Face y RLWRLD trabajando en modelos fundacionales para robots. El enfoque en dispositivo de Google resuelve una limitación crítica en el campo al permitir que los robots funcionen eficazmente en entornos donde la conectividad a la nube es poco práctica o imposible.

Source:

Latest News