Opisyal nang inilunsad ng Google ang Gemini 2.5 Flash-Lite, na nagmamarka ng isang mahalagang hakbang sa pagpapalapit at pagpapahusay ng makapangyarihang AI para sa mga developer at negosyo.
Ang bagong modelong ito, na inilarawan bilang "pinaka-matipid at pinakamabilis na 2.5 model" ng Google, ay in-optimize para sa mga operasyong nangangailangan ng mataas na volume at mababang latency. Pumasok ang Flash-Lite sa merkado na may pinakamababang latency at gastos sa pamilya ng 2.5 models, at dinisenyo bilang cost-effective na upgrade mula sa mga naunang 1.5 at 2.0 Flash models. Nag-aalok ito ng mas mahusay na performance sa karamihan ng mga pagsusuri, mas mabilis na oras sa unang token, at mas mataas na tokens per second decode—ginagawang perpekto ito para sa mga gawaing nangangailangan ng mataas na throughput gaya ng malawakang classification o summarization.
Bilang isang reasoning model, nagbibigay-daan ang Flash-Lite sa dynamic na kontrol ng "thinking budget" gamit ang API parameter. Hindi tulad ng ibang Gemini 2.5 models na naka-enable ang thinking bilang default, in-optimize ng Flash-Lite ang gastos at bilis sa pamamagitan ng pag-off ng thinking maliban kung ito ay partikular na i-enable. Sa kabila ng optimisasyong ito, sinusuportahan pa rin nito ang lahat ng native tools kabilang ang Google Search grounding, code execution, URL context, at function calling.
Ipinapakita ng mga performance test na 1.5 beses na mas mabilis ang Flash-Lite kumpara sa Gemini 2.0 Flash sa mas mababang gastos, kaya't napaka-angkop ito para sa mga gawaing tulad ng classification, translation, intelligent routing, at iba pang sensitibo sa gastos at malakihang operasyon. Habang ang ibang mga modelo ay maaaring default na gumamit ng mas makapangyarihan (at mas mahal) na reasoning tools upang sumagot ng mga tanong, binibigyan ng Flash-Lite ang mga developer ng kontrol sa prosesong ito. Maaaring i-toggle ng mga user ang kakayahan ng thinking depende sa kanilang pangangailangan, at kahit na matipid ito, hindi limitado ang Flash-Lite sa mga maaaring magawa nito.
Ang preview ng Gemini 2.5 Flash-Lite ay available na ngayon sa Google AI Studio at Vertex AI, kasabay ng mga stable na bersyon ng 2.5 Flash at Pro. Pareho ring maa-access ang 2.5 Flash at Pro sa Gemini app, at nagdala rin ang Google ng custom na bersyon ng 2.5 Flash-Lite at Flash sa Search.
Ang estratehikong pagpapalawak ng Gemini model family ay nagpapakita ng dedikasyon ng Google sa pagdemokratisa ng AI sa pamamagitan ng pagbibigay ng mga opsyon na balanse ang performance, gastos, at bilis para sa iba't ibang gamit—mula sa komplikadong reasoning tasks hanggang sa malakihang pagproseso ng datos.