Google har officielt lanceret Gemini 2.5 Flash-Lite, hvilket markerer et væsentligt fremskridt i bestræbelserne på at gøre kraftfuld AI mere tilgængelig og effektiv for både udviklere og virksomheder.
Den nye model, beskrevet som Googles "mest omkostningseffektive og hurtigste 2.5-model til dato", er optimeret til store mængder data og latenstidsfølsomme operationer. Flash-Lite træder ind på markedet med den laveste latenstid og pris i 2.5-modelserien og er designet som en prisvenlig opgradering fra tidligere 1.5- og 2.0 Flash-modeller. Den tilbyder bedre ydeevne på de fleste områder, med hurtigere tid til første token og højere tokens pr. sekund ved dekodning, hvilket gør den ideel til opgaver med høj gennemstrømning som klassificering eller opsummering i stor skala.
Som en modelleret til ræsonnement giver Flash-Lite mulighed for dynamisk styring af "tænke-budgettet" via en API-parameter. I modsætning til andre Gemini 2.5-modeller, hvor tænkning er aktiveret som standard, optimerer Flash-Lite for pris og hastighed ved at holde tænkning slået fra, medmindre det specifikt aktiveres. På trods af denne optimering understøtter den stadig alle native værktøjer, herunder Google Search grounding, kodeeksekvering, URL-kontekst og funktionskald.
Ydelsestests viser, at Flash-Lite er 1,5 gange hurtigere end Gemini 2.0 Flash til en lavere pris, hvilket gør den særligt velegnet til opgaver som klassificering, oversættelse, intelligent routing og andre prisfølsomme operationer i stor skala. Hvor andre modeller typisk benytter mere avancerede (og dyrere) ræsonnementværktøjer til at besvare spørgsmål, giver Flash-Lite udviklere kontrol over denne proces. Brugere kan slå tænke-funktionen til eller fra afhængigt af deres behov, og trods den høje omkostningseffektivitet er Flash-Lite ikke begrænset i, hvad den kan opnå.
Preview-versionen af Gemini 2.5 Flash-Lite er nu tilgængelig i Google AI Studio og Vertex AI, sammen med de stabile versioner af 2.5 Flash og Pro. Både 2.5 Flash og Pro kan også tilgås i Gemini-appen, og Google har bragt tilpassede versioner af 2.5 Flash-Lite og Flash til Search.
Denne strategiske udvidelse af Gemini-modelfamilien understreger Googles engagement i at demokratisere AI ved at tilbyde løsninger, der balancerer ydeevne, pris og hastighed til forskellige anvendelser – fra komplekse ræsonnementopgaver til databehandling i stor skala.