menu
close

Google rozszerza rodzinę Gemini 2.5 o ultrawydajny model Flash-Lite

Google rozszerzył rodzinę Gemini 2.5, udostępniając ogólnie modele Gemini 2.5 Flash i Pro, a jednocześnie wprowadzając w wersji zapoznawczej 2.5 Flash-Lite – najtańszy i najszybszy model 2.5 w ofercie firmy. Flash-Lite to model rozumowania zoptymalizowany pod kątem kosztów i szybkości, w którym "myślenie" jest domyślnie wyłączone, co zapewnia jeszcze tańszą opcję dla zastosowań wrażliwych na opóźnienia, gdzie wymagana jest mniejsza inteligencja modelu. Tymczasem Gemini 2.5 Pro stał się światowym liderem rankingów WebDev Arena i LMArena, potwierdzając dalszy postęp Google w dziedzinie AI.
Google rozszerza rodzinę Gemini 2.5 o ultrawydajny model Flash-Lite

Google ogłosił, że modele Gemini 2.5 Flash i 2.5 Pro są już stabilne i ogólnie dostępne, zapewniając organizacjom niezawodność i skalowalność niezbędną do wdrażania zaawansowanych możliwości AI w kluczowych aplikacjach biznesowych. Wraz z tymi premierami firma wprowadziła w wersji zapoznawczej Gemini 2.5 Flash-Lite, określany jako najtańszy i najszybszy model 2.5 w historii.

Gemini 2.5 Flash-Lite to model rozumowania, który umożliwia dynamiczne zarządzanie budżetem "myślenia" za pomocą parametru API. W przeciwieństwie do innych modeli z rodziny 2.5, Flash-Lite jest zoptymalizowany pod kątem kosztów i szybkości, a "myślenie" jest domyślnie wyłączone. Pomimo tych optymalizacji obsługuje wszystkie natywne narzędzia, w tym Grounding with Google Search, wykonywanie kodu, kontekst URL oraz wywoływanie funkcji.

Flash-Lite oferuje wyższą wydajność niż poprzedni model Flash-Lite i jest 1,5 raza szybszy od 2.0 Flash przy niższych kosztach. Został zaprojektowany z myślą o zadaniach o dużej skali i niskich opóźnieniach, takich jak tłumaczenia, klasyfikacja, inteligentne kierowanie oraz inne operacje wymagające wysokiej wydajności i niskich kosztów.

Model ten osiąga znacznie lepsze wyniki niż 2.0 Flash-Lite w testach kodowania, matematyki, nauk ścisłych, rozumowania oraz benchmarkach multimodalnych, co czyni go idealnym rozwiązaniem do zadań masowych.

Podobnie jak inne modele z rodziny Gemini 2.5, Flash-Lite oferuje szereg funkcji, w tym możliwość włączania "myślenia" na różnych poziomach budżetu, integrację z narzędziami takimi jak Grounding with Google Search i wykonywanie kodu, obsługę wejścia multimodalnego oraz kontekst o długości do 1 miliona tokenów. Aby zapewnić aktualność i rzetelność odpowiedzi, Flash-Lite może korzystać z Google Search jako wbudowanego narzędzia, inteligentnie decydując, kiedy użyć wyszukiwarki do uzupełnienia swojej wiedzy.

Oprócz premiery Flash-Lite, Google poinformował, że Gemini 2.5 Pro został światowym liderem rankingów WebDev Arena i LMArena. Z wynikiem ELO 1415 na liście WebDev Arena w kategorii kodowania, prowadzi również we wszystkich rankingach LMArena, które mierzą preferencje użytkowników w wielu wymiarach.

Dodatkowo, Google zintegrował LearnLM bezpośrednio z Gemini 2.5, czyniąc go wiodącym na świecie modelem do nauki. Według najnowszego raportu, Gemini 2.5 Pro przewyższył konkurencję we wszystkich kategoriach naukowych zasad uczenia się, a nauczyciele i eksperci od pedagogiki preferowali go w różnych scenariuszach edukacyjnych.

Gemini 2.5 Flash-Lite jest już dostępny w wersji zapoznawczej w Google AI Studio i Vertex AI, obok stabilnych wersji 2.5 Flash i Pro. Programiści mogą uzyskać dostęp do modelu (gemini-2.5-flash-lite-preview-06-17) za pośrednictwem Google Gen AI SDK, który zapewnia jednolity interfejs do rodziny modeli Gemini 2.5 zarówno przez Gemini Developer API, jak i Vertex AI Gemini API.

Source:

Latest News