Google ha ampliado su familia de modelos Gemini 2.5, poniendo a disposición general los modelos Gemini 2.5 Flash y Pro, y presentando además 2.5 Flash-Lite, su modelo 2.5 más rápido y rentable hasta la fecha. Las versiones estables de 2.5 Flash y Pro ya están disponibles, permitiendo a los desarrolladores crear aplicaciones de producción con confianza.
El 22 de julio de 2025, Google lanzó la versión estable de Gemini 2.5 Flash-Lite, que ofrece una velocidad increíble, eficiencia en costos y alta calidad. Este modelo fue diseñado para llevar la inteligencia por dólar al siguiente nivel, con capacidades nativas de razonamiento que pueden activarse opcionalmente para casos de uso más exigentes. Con un precio de solo $0.10 dólares por millón de tokens de entrada y $0.40 dólares por millón de tokens de salida, Flash-Lite está diseñado específicamente para tareas sensibles a la latencia, como traducción y clasificación. Presenta menor latencia que 2.0 Flash-Lite y 2.0 Flash en una amplia variedad de indicaciones, lo que lo hace ideal para cargas de trabajo de alto volumen.
La vista previa de Gemini 2.5 Flash-Lite ya está disponible en Google AI Studio y Vertex AI, junto con las versiones estables de 2.5 Flash y Pro. Tanto 2.5 Flash como Pro también están accesibles en la app de Gemini. Google también ha incorporado versiones personalizadas de 2.5 Flash-Lite y Flash en Search.
Adicionalmente, Google presentó Gemini CLI, un agente de IA de código abierto que lleva el poder de Gemini directamente a las terminales de los desarrolladores. Ofrece acceso ligero a Gemini, brindando a los usuarios el camino más directo desde su indicación hasta el modelo. Esta herramienta integra Gemini en las terminales para programación, resolución de problemas y gestión de tareas. Los usuarios pueden acceder a Gemini 2.5 Pro sin costo con una cuenta personal de Google, o utilizar una clave de Google AI Studio o Vertex AI para mayor acceso.
Gemini CLI fue diseñado para ser versátil, proporcionando el camino más directo desde las indicaciones hasta el modelo de Google. Aunque destaca en programación, está construido para hacer mucho más. Es una utilidad local y versátil que puede usarse para una amplia gama de tareas, desde generación de contenido y resolución de problemas hasta investigación profunda y gestión de tareas.
Si bien la mayoría de las personas utilizarán Gemini CLI para programar, los desarrolladores también pueden aprovecharlo para crear videos con el modelo Veo 3 de Google, generar informes de investigación o acceder a información en tiempo real a través de Google Search. Google también afirma que Gemini CLI puede conectarse a servidores MCP, permitiendo a los desarrolladores enlazarse con bases de datos externas. Para fomentar su adopción, Google está liberando Gemini CLI como código abierto bajo la licencia Apache 2.0 y ofreciendo límites de uso generosos. Los usuarios gratuitos pueden realizar 60 solicitudes al modelo por minuto y 1,000 solicitudes por día, lo que según la compañía es aproximadamente el doble del promedio de solicitudes que los desarrolladores hacían al usar la herramienta.
Esta expansión de la familia de modelos de IA insignia de Google representa un avance significativo para hacer que las potentes herramientas de IA sean más accesibles tanto para desarrolladores como para usuarios finales. La introducción de modelos más eficientes y herramientas para desarrolladores demuestra el compromiso de Google por mantener su posición competitiva en el mercado de IA, al tiempo que amplía las aplicaciones prácticas.