menu
close

Google presenta Gemini 2.5 Flash-Lite: ultraeficiente y pensado para IA de bajo coste

El 15 de julio de 2025, Google amplió su familia Gemini 2.5 con el lanzamiento oficial de Flash-Lite, su modelo más rápido y rentable de la serie 2.5. Esta novedad coincide con la disponibilidad general de Gemini 2.5 Flash y Pro para todos los usuarios. Flash-Lite está diseñado para ofrecer un rendimiento superior en tareas de alto volumen, manteniendo la menor latencia y el coste más bajo de toda la gama Gemini 2.5.
Google presenta Gemini 2.5 Flash-Lite: ultraeficiente y pensado para IA de bajo coste

Google ha lanzado oficialmente Gemini 2.5 Flash-Lite, marcando un avance significativo para hacer que la inteligencia artificial potente sea más accesible y eficiente tanto para desarrolladores como para empresas.

El nuevo modelo, descrito como el "más rápido y rentable de la serie 2.5" de Google, está optimizado para operaciones de gran volumen y sensibles a la latencia. Flash-Lite llega al mercado con la menor latencia y el coste más bajo dentro de la familia de modelos 2.5, concebido como una actualización económica respecto a los anteriores modelos Flash 1.5 y 2.0. Ofrece un mejor rendimiento en la mayoría de evaluaciones, con menor tiempo hasta el primer token y mayor velocidad de decodificación de tokens por segundo, lo que lo convierte en una opción ideal para tareas de alto rendimiento como clasificación o resumen a gran escala.

Como modelo de razonamiento, Flash-Lite permite un control dinámico del presupuesto de procesamiento mediante un parámetro de la API. A diferencia de otros modelos Gemini 2.5, donde el razonamiento está activado por defecto, Flash-Lite prioriza el coste y la velocidad manteniendo el razonamiento desactivado salvo que se active explícitamente. A pesar de esta optimización, sigue siendo compatible con todas las herramientas nativas, incluyendo la integración con Google Search, ejecución de código, contexto de URL y llamadas a funciones.

Las pruebas de rendimiento demuestran que Flash-Lite es 1,5 veces más rápido que Gemini 2.0 Flash y a un coste inferior, lo que lo hace especialmente adecuado para tareas como clasificación, traducción, enrutamiento inteligente y otras operaciones de gran escala y sensibles al coste. Mientras que otros modelos pueden recurrir por defecto a herramientas de razonamiento más potentes (y costosas) para responder preguntas, Flash-Lite otorga a los desarrolladores el control sobre este proceso. Los usuarios pueden activar o desactivar la capacidad de razonamiento según sus necesidades específicas y, a pesar de su eficiencia en costes, Flash-Lite no está limitado en cuanto a lo que puede lograr.

La versión preliminar de Gemini 2.5 Flash-Lite ya está disponible en Google AI Studio y Vertex AI, junto con las versiones estables de 2.5 Flash y Pro. Tanto 2.5 Flash como Pro también están accesibles en la app Gemini, y Google ha incorporado versiones personalizadas de 2.5 Flash-Lite y Flash en Search.

Esta expansión estratégica de la familia de modelos Gemini representa el compromiso de Google por democratizar la IA, ofreciendo opciones que equilibran rendimiento, coste y velocidad para distintos casos de uso, desde tareas complejas de razonamiento hasta procesamiento de datos a gran escala.

Source:

Latest News