Google ogłosił, że modele Gemini 2.5 Flash i 2.5 Pro są już stabilne i ogólnie dostępne, zapewniając organizacjom niezawodność i skalowalność niezbędną do wdrażania zaawansowanych możliwości AI w kluczowych aplikacjach biznesowych. Wraz z tymi premierami firma wprowadziła w wersji zapoznawczej Gemini 2.5 Flash-Lite, określany jako najtańszy i najszybszy model 2.5 w historii.
Gemini 2.5 Flash-Lite to model rozumowania, który umożliwia dynamiczne zarządzanie budżetem "myślenia" za pomocą parametru API. W przeciwieństwie do innych modeli z rodziny 2.5, Flash-Lite jest zoptymalizowany pod kątem kosztów i szybkości, a "myślenie" jest domyślnie wyłączone. Pomimo tych optymalizacji obsługuje wszystkie natywne narzędzia, w tym Grounding with Google Search, wykonywanie kodu, kontekst URL oraz wywoływanie funkcji.
Flash-Lite oferuje wyższą wydajność niż poprzedni model Flash-Lite i jest 1,5 raza szybszy od 2.0 Flash przy niższych kosztach. Został zaprojektowany z myślą o zadaniach o dużej skali i niskich opóźnieniach, takich jak tłumaczenia, klasyfikacja, inteligentne kierowanie oraz inne operacje wymagające wysokiej wydajności i niskich kosztów.
Model ten osiąga znacznie lepsze wyniki niż 2.0 Flash-Lite w testach kodowania, matematyki, nauk ścisłych, rozumowania oraz benchmarkach multimodalnych, co czyni go idealnym rozwiązaniem do zadań masowych.
Podobnie jak inne modele z rodziny Gemini 2.5, Flash-Lite oferuje szereg funkcji, w tym możliwość włączania "myślenia" na różnych poziomach budżetu, integrację z narzędziami takimi jak Grounding with Google Search i wykonywanie kodu, obsługę wejścia multimodalnego oraz kontekst o długości do 1 miliona tokenów. Aby zapewnić aktualność i rzetelność odpowiedzi, Flash-Lite może korzystać z Google Search jako wbudowanego narzędzia, inteligentnie decydując, kiedy użyć wyszukiwarki do uzupełnienia swojej wiedzy.
Oprócz premiery Flash-Lite, Google poinformował, że Gemini 2.5 Pro został światowym liderem rankingów WebDev Arena i LMArena. Z wynikiem ELO 1415 na liście WebDev Arena w kategorii kodowania, prowadzi również we wszystkich rankingach LMArena, które mierzą preferencje użytkowników w wielu wymiarach.
Dodatkowo, Google zintegrował LearnLM bezpośrednio z Gemini 2.5, czyniąc go wiodącym na świecie modelem do nauki. Według najnowszego raportu, Gemini 2.5 Pro przewyższył konkurencję we wszystkich kategoriach naukowych zasad uczenia się, a nauczyciele i eksperci od pedagogiki preferowali go w różnych scenariuszach edukacyjnych.
Gemini 2.5 Flash-Lite jest już dostępny w wersji zapoznawczej w Google AI Studio i Vertex AI, obok stabilnych wersji 2.5 Flash i Pro. Programiści mogą uzyskać dostęp do modelu (gemini-2.5-flash-lite-preview-06-17) za pośrednictwem Google Gen AI SDK, który zapewnia jednolity interfejs do rodziny modeli Gemini 2.5 zarówno przez Gemini Developer API, jak i Vertex AI Gemini API.