menu
close

Pinalawak ng Google ang Gemini 2.5 Family sa Pamamagitan ng Ultra-Efficient Flash-Lite

Pinalawak ng Google ang Gemini 2.5 family sa pamamagitan ng pagpapalawak ng Gemini 2.5 Flash at Pro bilang pangkalahatang available, habang inilulunsad ang 2.5 Flash-Lite sa preview – ang pinaka-matipid at pinakamabilis nilang 2.5 model sa ngayon. Ang Flash-Lite ay isang reasoning model na inangkop para sa mas mababang gastos at bilis, kung saan naka-off ang "pag-iisip" bilang default, na nagbibigay ng mas abot-kayang opsyon para sa mga use case na sensitibo sa latency at hindi nangangailangan ng mataas na katalinuhan ng modelo. Samantala, ang Gemini 2.5 Pro ay naging nangungunang modelo sa buong WebDev Arena at LMArena leaderboards, na nagpapakita ng patuloy na pag-unlad ng AI ng Google.
Pinalawak ng Google ang Gemini 2.5 Family sa Pamamagitan ng Ultra-Efficient Flash-Lite

Inanunsyo ng Google na ang Gemini 2.5 Flash at 2.5 Pro ay ngayon ay stable at pangkalahatang available, na nagbibigay sa mga organisasyon ng kinakailangang reliability at scalability upang may kumpiyansang mag-deploy ng advanced AI capabilities sa mga mission-critical na aplikasyon. Kasabay ng mga release na ito, inilunsad din ng kumpanya ang Gemini 2.5 Flash-Lite sa preview, na inilarawan bilang kanilang pinaka-matipid at pinakamabilis na 2.5 model sa ngayon.

Ang Gemini 2.5 Flash-Lite ay isang reasoning model na nagbibigay-daan sa dynamic na kontrol ng "thinking budget" gamit ang API parameter. Hindi tulad ng ibang modelo sa 2.5 family, ang Flash-Lite ay inangkop para sa mas mababang gastos at bilis, na naka-off ang "pag-iisip" bilang default. Sa kabila ng mga optimisasyong ito, sinusuportahan pa rin nito ang lahat ng native na tools kabilang ang Grounding with Google Search, Code Execution, at URL Context, bukod pa sa function calling.

Nagbibigay ang Flash-Lite ng mas mataas na performance kumpara sa naunang Flash-Lite model at 1.5 beses na mas mabilis kaysa 2.0 Flash sa mas mababang gastos. Ito ay partikular na dinisenyo para sa mga high-volume, latency-sensitive na gawain tulad ng pagsasalin, pag-uuri, intelligent routing, at iba pang cost-sensitive at malakihang operasyon. Ang modelo ay may mas mataas na performance kaysa sa 2.0 Flash-Lite sa coding, math, science, reasoning, at multimodal benchmarks, kaya't ideal ito para sa mga high-volume na gawain.

Tulad ng ibang mga modelo sa Gemini 2.5 family, ang Flash-Lite ay may mga kakayahan na nagpapahusay sa pagiging kapaki-pakinabang nito, kabilang ang kakayahang i-on ang "thinking" sa iba't ibang budget, pagkonekta sa mga tool tulad ng Grounding with Google Search at code execution, multimodal input, at 1 milyong token na context length. Upang matiyak na ang mga tugon ay napapanahon at factual, maaaring gamitin ng Flash-Lite ang Google Search bilang built-in na tool at matalinong magpasya kung kailan gagamitin ito upang palawakin ang kaalaman nito.

Bukod sa pagpapakilala ng Flash-Lite, inanunsyo rin ng Google na ang Gemini 2.5 Pro ay naging nangungunang modelo sa buong WebDev Arena at LMArena leaderboards. Sa ELO score na 1415 sa WebDev Arena coding leaderboard, nangunguna ito sa lahat ng leaderboard sa LMArena, na sumusukat sa human preferences sa iba't ibang dimensyon. Dagdag pa rito, isinama ng Google ang LearnLM direkta sa Gemini 2.5, na ginagawa itong nangungunang modelo sa mundo para sa pagkatuto. Ayon sa kanilang pinakabagong ulat, natalo ng Gemini 2.5 Pro ang mga kakumpitensya sa bawat kategorya ng learning science principles, at mas pinili ito ng mga guro at eksperto sa pedagohiya kumpara sa iba pang mga produkto sa iba't ibang learning scenarios.

Ang Gemini 2.5 Flash-Lite ay available na ngayon sa preview sa Google AI Studio at Vertex AI, kasabay ng mga stable na bersyon ng 2.5 Flash at Pro. Maaaring ma-access ng mga developer ang modelong ito (gemini-2.5-flash-lite-preview-06-17) sa pamamagitan ng Google Gen AI SDK, na nagbibigay ng unified interface sa Gemini 2.5 model family gamit ang parehong Gemini Developer API at Vertex AI Gemini API.

Source:

Latest News