Google ha annunciato che Gemini 2.5 Flash e 2.5 Pro sono ora stabili e generalmente disponibili, offrendo alle organizzazioni l’affidabilità e la scalabilità necessarie per implementare con sicurezza funzionalità avanzate di intelligenza artificiale in applicazioni mission-critical. Insieme a questi rilasci, l’azienda ha introdotto in anteprima Gemini 2.5 Flash-Lite, descritto come il modello 2.5 più veloce ed economico mai realizzato.
Gemini 2.5 Flash-Lite è un modello di ragionamento che consente il controllo dinamico del budget di "pensiero" tramite un parametro API. A differenza degli altri modelli della famiglia 2.5, Flash-Lite è ottimizzato per costi e velocità, con la funzione di "pensiero" disattivata di default. Nonostante queste ottimizzazioni, supporta tutti gli strumenti nativi, tra cui Grounding con Google Search, esecuzione di codice e contesto URL, oltre alla chiamata di funzioni.
Flash-Lite offre prestazioni superiori rispetto al precedente modello Flash-Lite ed è 1,5 volte più veloce di 2.0 Flash a un costo inferiore. È stato progettato specificamente per attività ad alto volume e sensibili alla latenza come traduzione, classificazione, instradamento intelligente e altre operazioni su larga scala dove il costo è un fattore critico.
Il modello mostra prestazioni significativamente superiori rispetto a 2.0 Flash-Lite nei benchmark di programmazione, matematica, scienze, ragionamento e multimodali, rendendolo ideale per compiti ad alto volume.
Come gli altri modelli della famiglia Gemini 2.5, anche Flash-Lite offre funzionalità utili, inclusa la possibilità di attivare il "pensiero" con diversi budget, la connessione a strumenti come Grounding con Google Search ed esecuzione di codice, input multimodale e una lunghezza di contesto di 1 milione di token.
Per garantire risposte aggiornate e accurate, Flash-Lite può utilizzare Google Search come strumento integrato, decidendo in modo intelligente quando ricorrere alla ricerca per arricchire le proprie conoscenze.
Oltre all’introduzione di Flash-Lite, Google ha annunciato che Gemini 2.5 Pro è diventato il modello leader mondiale nelle classifiche WebDev Arena e LMArena. Con un punteggio ELO di 1415 nella classifica di coding di WebDev Arena, guida tutte le classifiche di LMArena, che misura le preferenze umane su più dimensioni.
Inoltre, Google ha integrato LearnLM direttamente in Gemini 2.5, rendendolo il modello leader mondiale per l’apprendimento. Secondo l’ultimo report, Gemini 2.5 Pro ha superato i concorrenti in tutte le categorie dei principi della scienza dell’apprendimento, con educatori ed esperti di pedagogia che lo hanno preferito rispetto ad altre soluzioni in diversi scenari didattici.
Gemini 2.5 Flash-Lite è ora disponibile in anteprima su Google AI Studio e Vertex AI, insieme alle versioni stabili di 2.5 Flash e Pro. Gli sviluppatori possono accedere al modello (gemini-2.5-flash-lite-preview-06-17) tramite il Google Gen AI SDK, che offre un’interfaccia unificata alla famiglia di modelli Gemini 2.5 sia attraverso la Gemini Developer API che la Vertex AI Gemini API.