menu
close

Google amplía la familia Gemini 2.5 con el ultraeficiente Flash-Lite

Google ha ampliado su familia Gemini 2.5 al poner Gemini 2.5 Flash y Pro a disposición general, mientras presenta 2.5 Flash-Lite en vista previa: su modelo 2.5 más rápido y rentable hasta la fecha. Flash-Lite es un modelo de razonamiento optimizado para coste y velocidad, con la "capacidad de pensar" desactivada por defecto, ofreciendo una opción aún más económica para casos de uso sensibles a la latencia que requieren menos inteligencia del modelo. Mientras tanto, Gemini 2.5 Pro se ha convertido en el modelo líder mundial en los rankings de WebDev Arena y LMArena, demostrando el avance continuo de Google en IA.
Google amplía la familia Gemini 2.5 con el ultraeficiente Flash-Lite

Google ha anunciado que Gemini 2.5 Flash y 2.5 Pro ya son estables y están disponibles de forma general, proporcionando a las organizaciones la fiabilidad y escalabilidad necesarias para desplegar con confianza capacidades avanzadas de IA en aplicaciones críticas para el negocio. Junto a estos lanzamientos, la compañía ha presentado Gemini 2.5 Flash-Lite en vista previa, descrito como su modelo 2.5 más eficiente en costes y rápido hasta la fecha.

Gemini 2.5 Flash-Lite es un modelo de razonamiento que permite el control dinámico del presupuesto de pensamiento mediante un parámetro de la API. A diferencia de otros modelos de la familia 2.5, Flash-Lite está optimizado para coste y velocidad, con la "capacidad de pensar" desactivada por defecto. A pesar de estas optimizaciones, es compatible con todas las herramientas nativas, incluyendo Grounding con Google Search, ejecución de código y contexto de URL, además de la llamada a funciones.

Flash-Lite ofrece un rendimiento superior al modelo Flash-Lite anterior y es 1,5 veces más rápido que 2.0 Flash a un coste inferior. Está diseñado específicamente para tareas de alto volumen y baja latencia, como traducción, clasificación, enrutamiento inteligente y otras operaciones a gran escala sensibles al coste.

El modelo presenta un rendimiento significativamente superior al de 2.0 Flash-Lite en benchmarks de programación, matemáticas, ciencia, razonamiento y multimodalidad, lo que lo convierte en ideal para tareas de alto volumen.

Al igual que otros modelos de la familia Gemini 2.5, Flash-Lite incluye capacidades útiles, como la posibilidad de activar el pensamiento con diferentes presupuestos, conexión con herramientas como Grounding con Google Search y ejecución de código, entrada multimodal y un contexto de hasta un millón de tokens.

Para garantizar respuestas actuales y verídicas, Flash-Lite puede utilizar Google Search como herramienta integrada, decidiendo de forma inteligente cuándo emplear la búsqueda para ampliar su conocimiento.

Más allá de la introducción de Flash-Lite, Google ha anunciado que Gemini 2.5 Pro se ha convertido en el modelo líder mundial en los rankings de WebDev Arena y LMArena. Con una puntuación ELO de 1415 en la clasificación de programación de WebDev Arena, lidera todos los rankings de LMArena, que mide las preferencias humanas en múltiples dimensiones.

Además, Google ha integrado LearnLM directamente en Gemini 2.5, convirtiéndolo en el modelo líder mundial para el aprendizaje. Según su último informe, Gemini 2.5 Pro superó a la competencia en todas las categorías de principios de ciencia del aprendizaje, siendo preferido por educadores y expertos en pedagogía frente a otras opciones en una amplia variedad de escenarios de aprendizaje.

Gemini 2.5 Flash-Lite ya está disponible en vista previa en Google AI Studio y Vertex AI, junto con las versiones estables de 2.5 Flash y Pro. Los desarrolladores pueden acceder al modelo (gemini-2.5-flash-lite-preview-06-17) a través del Google Gen AI SDK, que proporciona una interfaz unificada para la familia de modelos Gemini 2.5 tanto mediante la API de desarrolladores de Gemini como la API de Vertex AI Gemini.

Source:

Latest News