Google ha lanciato ufficialmente Gemini 2.5 Flash-Lite, segnando un importante passo avanti nel rendere l’intelligenza artificiale potente più accessibile ed efficiente sia per gli sviluppatori che per le aziende.
Il nuovo modello, descritto come il “più economico e veloce della serie 2.5” di Google, è ottimizzato per operazioni ad alto volume e sensibili alla latenza. Flash-Lite arriva sul mercato con la latenza e il costo più bassi della famiglia di modelli 2.5, pensato come aggiornamento conveniente rispetto ai precedenti modelli Flash 1.5 e 2.0. Offre prestazioni migliori nella maggior parte delle valutazioni, con un tempo di risposta più rapido e una velocità di decodifica dei token superiore, risultando ideale per compiti ad alto throughput come classificazione o sintesi su larga scala.
Come modello di ragionamento, Flash-Lite consente il controllo dinamico del budget di pensiero tramite un parametro API. A differenza degli altri modelli Gemini 2.5, dove il ragionamento è attivo di default, Flash-Lite ottimizza costi e velocità mantenendo il ragionamento disattivato, salvo specifica attivazione. Nonostante questa ottimizzazione, supporta comunque tutti gli strumenti nativi, compresi l’ancoraggio a Google Search, l’esecuzione di codice, il contesto URL e la chiamata di funzioni.
I test sulle prestazioni mostrano che Flash-Lite è 1,5 volte più veloce di Gemini 2.0 Flash a un costo inferiore, rendendolo particolarmente adatto per attività come classificazione, traduzione, instradamento intelligente e altre operazioni su larga scala e sensibili ai costi. Mentre altri modelli possono ricorrere di default a strumenti di ragionamento più potenti (e costosi) per rispondere alle domande, Flash-Lite offre agli sviluppatori il controllo di questo processo. Gli utenti possono attivare o disattivare la capacità di ragionamento in base alle proprie esigenze specifiche e, nonostante l’efficienza nei costi, Flash-Lite non è limitato nelle sue funzionalità.
La versione di anteprima di Gemini 2.5 Flash-Lite è ora disponibile su Google AI Studio e Vertex AI, insieme alle versioni stabili di 2.5 Flash e Pro. Sia 2.5 Flash che Pro sono accessibili anche nell’app Gemini, e Google ha introdotto versioni personalizzate di 2.5 Flash-Lite e Flash in Search.
Questa espansione strategica della famiglia di modelli Gemini rappresenta l’impegno di Google a democratizzare l’IA, offrendo opzioni che bilanciano prestazioni, costi e velocità per diversi casi d’uso, dai compiti di ragionamento complesso all’elaborazione di grandi volumi di dati.