menu
close

Google utökar Gemini 2.5-familjen med ultrasnabba och kostnadseffektiva Flash-Lite

Google har utökat sin Gemini 2.5-familj genom att göra Gemini 2.5 Flash och Pro allmänt tillgängliga, samtidigt som de introducerar 2.5 Flash-Lite i förhandsvisning – deras mest kostnadseffektiva och snabbaste 2.5-modell hittills. Flash-Lite är en resonemangsmodell optimerad för kostnad och hastighet med "tänkande" avstängt som standard, vilket ger ett ännu billigare alternativ för användningsområden med krav på låg latens och mindre modellintelligens. Samtidigt har Gemini 2.5 Pro blivit världsledande modell på WebDev Arena och LMArena-topplistorna, vilket visar på Googles fortsatta framsteg inom AI.
Google utökar Gemini 2.5-familjen med ultrasnabba och kostnadseffektiva Flash-Lite

Google har meddelat att Gemini 2.5 Flash och 2.5 Pro nu är stabila och allmänt tillgängliga, vilket ger organisationer den tillförlitlighet och skalbarhet som krävs för att säkert kunna implementera avancerade AI-funktioner i affärskritiska applikationer. I samband med dessa lanseringar har företaget introducerat Gemini 2.5 Flash-Lite i förhandsvisning, som beskrivs som deras mest kostnadseffektiva och snabbaste 2.5-modell hittills.

Gemini 2.5 Flash-Lite är en resonemangsmodell som möjliggör dynamisk kontroll av "tänkarbudget" via en API-parameter. Till skillnad från andra modeller i 2.5-familjen är Flash-Lite optimerad för kostnad och hastighet med "tänkande" avstängt som standard. Trots dessa optimeringar stöder den alla inbyggda verktyg, inklusive Grounding med Google Sök, kodexekvering och URL-kontekst samt funktionsanrop.

Flash-Lite levererar högre prestanda än den tidigare Flash-Lite-modellen och är 1,5 gånger snabbare än 2.0 Flash till en lägre kostnad. Modellen är särskilt utformad för uppgifter med höga volymer och krav på låg latens, såsom översättning, klassificering, intelligent dirigering och andra kostnadskänsliga, storskaliga operationer. Modellen har avsevärt högre prestanda än 2.0 Flash-Lite inom kodning, matematik, naturvetenskap, resonemang och multimodala tester, vilket gör den idealisk för uppgifter med stora volymer.

Precis som övriga modeller i Gemini 2.5-familjen har Flash-Lite funktioner som gör den användbar, inklusive möjligheten att aktivera "tänkande" på olika budgetnivåer, koppling till verktyg som Grounding med Google Sök och kodexekvering, multimodal inmatning samt ett kontextfönster på 1 miljon token. För att säkerställa att svaren är aktuella och faktabaserade kan Flash-Lite använda Google Sök som ett inbyggt verktyg och avgör själv när det är lämpligt att använda sökfunktionen för att förstärka sin kunskap.

Utöver introduktionen av Flash-Lite har Google meddelat att Gemini 2.5 Pro blivit världsledande modell på WebDev Arena och LMArena-topplistorna. Med ett ELO-score på 1415 på WebDev Arenas kodningslista leder den på samtliga topplistor i LMArena, som mäter mänskliga preferenser i flera dimensioner. Dessutom har Google integrerat LearnLM direkt i Gemini 2.5, vilket gör den till världens ledande modell för lärande. Enligt deras senaste rapport presterade Gemini 2.5 Pro bättre än konkurrenterna i alla kategorier av lärandets vetenskapliga principer, och både lärare och pedagogikexperter föredrog den framför andra alternativ i en rad olika lärandescenarier.

Gemini 2.5 Flash-Lite finns nu tillgänglig i förhandsvisning i Google AI Studio och Vertex AI, tillsammans med de stabila versionerna av 2.5 Flash och Pro. Utvecklare kan få tillgång till modellen (gemini-2.5-flash-lite-preview-06-17) via Google Gen AI SDK, som erbjuder ett enhetligt gränssnitt till Gemini 2.5-familjen genom både Gemini Developer API och Vertex AI Gemini API.

Source:

Latest News