Google ha ampliado su familia de modelos Gemini 2.5, poniendo Gemini 2.5 Flash y Pro a disposición general de todos, e introduciendo además 2.5 Flash-Lite, su modelo 2.5 más rápido y rentable hasta la fecha. Las versiones estables de 2.5 Flash y Pro ya están disponibles, lo que permite a los desarrolladores crear aplicaciones en producción con confianza.
El 22 de julio de 2025, Google lanzó la versión estable de Gemini 2.5 Flash-Lite, que ofrece una velocidad increíble, gran eficiencia de costes y alta calidad. Este modelo ha sido diseñado para llevar la inteligencia por dólar al siguiente nivel, con capacidades de razonamiento nativas que pueden activarse opcionalmente para casos de uso más exigentes. Con un precio de solo 0,10 dólares por millón de tokens de entrada y 0,40 dólares por millón de tokens de salida, Flash-Lite está específicamente diseñado para tareas sensibles a la latencia como traducción y clasificación. Presenta una latencia inferior a la de 2.0 Flash-Lite y 2.0 Flash en una amplia muestra de prompts, lo que lo convierte en una opción ideal para cargas de trabajo de alto volumen.
La versión preliminar de Gemini 2.5 Flash-Lite ya está disponible en Google AI Studio y Vertex AI, junto con las versiones estables de 2.5 Flash y Pro. Tanto 2.5 Flash como Pro también se pueden utilizar en la app de Gemini. Google también ha incorporado versiones personalizadas de 2.5 Flash-Lite y Flash en Search.
Además, Google ha presentado Gemini CLI, un agente de IA de código abierto que lleva la potencia de Gemini directamente a los terminales de los desarrolladores. Ofrece un acceso ligero a Gemini, proporcionando a los usuarios el camino más directo desde su prompt hasta el modelo. Esta herramienta integra Gemini directamente en los terminales para programación, resolución de problemas y gestión de tareas. Los usuarios pueden acceder a Gemini 2.5 Pro de forma gratuita con una cuenta personal de Google, o utilizar una clave de Google AI Studio o Vertex AI para un acceso ampliado.
Gemini CLI ha sido diseñado para ser versátil, proporcionando el camino más directo desde los prompts hasta el modelo de Google. Aunque destaca en programación, está concebido para mucho más. Es una utilidad local y versátil que puede usarse para una amplia gama de tareas, desde la generación de contenidos y la resolución de problemas hasta la investigación avanzada y la gestión de tareas.
Aunque la mayoría de usuarios emplearán Gemini CLI para programar, los desarrolladores también pueden utilizarlo para crear vídeos con el modelo Veo 3 de Google, generar informes de investigación o acceder a información en tiempo real a través de Google Search. Google también afirma que Gemini CLI puede conectarse a servidores MCP, permitiendo a los desarrolladores acceder a bases de datos externas. Para fomentar su adopción, Google ha liberado Gemini CLI como código abierto bajo la licencia Apache 2.0 y ofrece generosos límites de uso. Los usuarios gratuitos pueden realizar 60 solicitudes al modelo por minuto y 1.000 solicitudes al día, lo que según la compañía duplica aproximadamente la media de solicitudes que hacían los desarrolladores al utilizar la herramienta.
Esta ampliación de la familia de modelos de IA insignia de Google supone un avance significativo para facilitar el acceso a potentes herramientas de IA tanto a desarrolladores como a usuarios finales. La introducción de modelos más eficientes y herramientas para desarrolladores demuestra el compromiso de Google por mantener su posición competitiva en el mercado de la IA y ampliar las aplicaciones prácticas.