menu
close

Google presenta Gemini 2.5 Flash-Lite: Ultraeficiente y económico para IA de alto rendimiento

El 15 de julio de 2025, Google amplió su familia Gemini 2.5 con el lanzamiento oficial de Flash-Lite, su modelo más rápido y rentable de la serie 2.5. Este lanzamiento coincide con la disponibilidad general de Gemini 2.5 Flash y Pro para todos los usuarios. Flash-Lite está diseñado para ofrecer un rendimiento superior en tareas de alto volumen, manteniendo la menor latencia y costo dentro de la línea Gemini 2.5.
Google presenta Gemini 2.5 Flash-Lite: Ultraeficiente y económico para IA de alto rendimiento

Google ha lanzado oficialmente Gemini 2.5 Flash-Lite, marcando un avance significativo para hacer que la inteligencia artificial potente sea más accesible y eficiente tanto para desarrolladores como para empresas.

El nuevo modelo, descrito como el "más rentable y rápido de la serie 2.5" de Google, está optimizado para operaciones de alto volumen y sensibles a la latencia. Flash-Lite llega al mercado con la menor latencia y costo dentro de la familia de modelos 2.5, diseñado como una actualización económica respecto a los modelos Flash 1.5 y 2.0 anteriores. Ofrece un mejor rendimiento en la mayoría de las evaluaciones, con menor tiempo hasta el primer token y mayor velocidad de decodificación de tokens por segundo, lo que lo hace ideal para tareas de alto rendimiento como clasificación o resumen a gran escala.

Como modelo de razonamiento, Flash-Lite permite el control dinámico del presupuesto de procesamiento a través de un parámetro en la API. A diferencia de otros modelos Gemini 2.5, donde el razonamiento está habilitado por defecto, Flash-Lite optimiza el costo y la velocidad manteniendo el razonamiento desactivado a menos que se habilite específicamente. A pesar de esta optimización, sigue soportando todas las herramientas nativas, incluyendo la integración con Google Search, ejecución de código, contexto de URL y llamadas a funciones.

Las pruebas de rendimiento muestran que Flash-Lite es 1.5 veces más rápido que Gemini 2.0 Flash y a un costo menor, lo que lo hace especialmente adecuado para tareas como clasificación, traducción, enrutamiento inteligente y otras operaciones de gran escala y sensibles al costo. Mientras que otros modelos pueden recurrir por defecto a herramientas de razonamiento más potentes (y costosas) para responder preguntas, Flash-Lite otorga a los desarrolladores el control sobre este proceso. Los usuarios pueden activar o desactivar la capacidad de razonamiento según sus necesidades específicas, y a pesar de su eficiencia en costos, Flash-Lite no está limitado en lo que puede lograr.

La vista previa de Gemini 2.5 Flash-Lite ya está disponible en Google AI Studio y Vertex AI, junto con las versiones estables de 2.5 Flash y Pro. Tanto 2.5 Flash como Pro también están accesibles en la app de Gemini, y Google ha incorporado versiones personalizadas de 2.5 Flash-Lite y Flash en Search.

Esta expansión estratégica de la familia de modelos Gemini representa el compromiso de Google de democratizar la IA, ofreciendo opciones que equilibran rendimiento, costo y velocidad para distintos casos de uso, desde tareas complejas de razonamiento hasta procesamiento de datos a gran escala.

Source:

Latest News