menu
close

Google amplía la familia Gemini 2.5 con Flash-Lite ultra eficiente

Google ha ampliado su familia Gemini 2.5 al poner Gemini 2.5 Flash y Pro a disposición general, e introducir 2.5 Flash-Lite en vista previa, su modelo 2.5 más rápido y rentable hasta la fecha. Flash-Lite es un modelo de razonamiento optimizado para costo y velocidad, con la función de "pensamiento" desactivada por defecto, ofreciendo una opción aún más económica para casos de uso sensibles a la latencia que requieren menor inteligencia del modelo. Mientras tanto, Gemini 2.5 Pro se ha posicionado como el modelo líder mundial en los rankings de WebDev Arena y LMArena, demostrando el avance continuo de Google en IA.
Google amplía la familia Gemini 2.5 con Flash-Lite ultra eficiente

Google anunció que Gemini 2.5 Flash y 2.5 Pro ya son estables y están disponibles de forma general, brindando a las organizaciones la confiabilidad y escalabilidad necesarias para implementar capacidades avanzadas de IA en aplicaciones críticas. Junto con estos lanzamientos, la compañía presentó Gemini 2.5 Flash-Lite en vista previa, descrito como su modelo 2.5 más eficiente en costos y rápido hasta ahora.

Gemini 2.5 Flash-Lite es un modelo de razonamiento que permite el control dinámico del presupuesto de pensamiento mediante un parámetro en la API. A diferencia de otros modelos de la familia 2.5, Flash-Lite está optimizado para costo y velocidad, con la función de "pensamiento" desactivada por defecto. A pesar de estas optimizaciones, admite todas las herramientas nativas, incluyendo Grounding con Google Search, ejecución de código y contexto de URL, además de la llamada a funciones.

Flash-Lite ofrece un rendimiento superior al modelo Flash-Lite anterior y es 1.5 veces más rápido que 2.0 Flash a un costo menor. Está diseñado específicamente para tareas de alto volumen y baja latencia, como traducción, clasificación, enrutamiento inteligente y otras operaciones a gran escala sensibles al costo.

El modelo muestra un rendimiento significativamente mayor que 2.0 Flash-Lite en pruebas de codificación, matemáticas, ciencias, razonamiento y evaluaciones multimodales, lo que lo hace ideal para tareas de alto volumen.

Al igual que otros modelos de la familia Gemini 2.5, Flash-Lite incluye capacidades útiles, como la posibilidad de activar el pensamiento con diferentes presupuestos, conexión con herramientas como Grounding con Google Search y ejecución de código, entrada multimodal y un contexto de hasta un millón de tokens.

Para asegurar respuestas actuales y precisas, Flash-Lite puede utilizar Google Search como herramienta integrada, decidiendo de manera inteligente cuándo emplear la búsqueda para complementar su conocimiento.

Más allá de la introducción de Flash-Lite, Google anunció que Gemini 2.5 Pro se ha convertido en el modelo líder mundial en los rankings de WebDev Arena y LMArena. Con una puntuación ELO de 1415 en el ranking de codificación de WebDev Arena, lidera todos los rankings en LMArena, que mide las preferencias humanas en múltiples dimensiones.

Además, Google ha integrado LearnLM directamente en Gemini 2.5, convirtiéndolo en el modelo líder mundial para el aprendizaje. Según su último informe, Gemini 2.5 Pro superó a la competencia en todas las categorías de principios de la ciencia del aprendizaje, siendo preferido por educadores y expertos en pedagogía sobre otras opciones en diversos escenarios de aprendizaje.

Gemini 2.5 Flash-Lite ya está disponible en vista previa en Google AI Studio y Vertex AI, junto con las versiones estables de 2.5 Flash y Pro. Los desarrolladores pueden acceder al modelo (gemini-2.5-flash-lite-preview-06-17) a través del Google Gen AI SDK, que ofrece una interfaz unificada para la familia de modelos Gemini 2.5 tanto mediante la API de Gemini Developer como la API de Vertex AI Gemini.

Source:

Latest News