menu
close

Google prezentuje ultrawydajny Gemini 2.5 Flash-Lite dla budżetowych zastosowań AI

15 lipca 2025 roku Google rozszerzył rodzinę Gemini 2.5, oficjalnie wprowadzając Flash-Lite – najtańszy i najszybszy model w serii 2.5. Premiera ta zbiegła się z ogólną dostępnością modeli Gemini 2.5 Flash i Pro dla wszystkich użytkowników. Flash-Lite został zaprojektowany z myślą o zapewnieniu najwyższej wydajności przy zadaniach wymagających dużej przepustowości, jednocześnie utrzymując najniższe opóźnienia i koszty w całej linii Gemini 2.5.
Google prezentuje ultrawydajny Gemini 2.5 Flash-Lite dla budżetowych zastosowań AI

Google oficjalnie zaprezentował Gemini 2.5 Flash-Lite, co stanowi istotny krok w kierunku udostępniania wydajnej sztucznej inteligencji zarówno deweloperom, jak i przedsiębiorstwom.

Nowy model, określany jako „najbardziej opłacalny i najszybszy model 2.5 w historii Google”, został zoptymalizowany pod kątem operacji o dużej skali i niskich opóźnieniach. Flash-Lite debiutuje na rynku z najniższymi opóźnieniami i kosztami w rodzinie modeli 2.5, stanowiąc ekonomiczne ulepszenie względem wcześniejszych modeli Flash 1.5 i 2.0. Oferuje lepszą wydajność w większości testów, krótszy czas do uzyskania pierwszego tokena oraz wyższą liczbę tokenów na sekundę, co czyni go idealnym rozwiązaniem do zadań wymagających dużej przepustowości, takich jak klasyfikacja czy masowe podsumowywanie.

Jako model rozumujący, Flash-Lite umożliwia dynamiczną kontrolę budżetu obliczeniowego za pomocą parametru API. W przeciwieństwie do innych modeli Gemini 2.5, gdzie tryb rozumowania jest domyślnie włączony, Flash-Lite optymalizuje koszty i szybkość, utrzymując rozumowanie wyłączone, chyba że zostanie ono celowo aktywowane. Mimo tej optymalizacji, model obsługuje wszystkie natywne narzędzia, w tym integrację z wyszukiwarką Google, wykonywanie kodu, kontekst URL oraz wywoływanie funkcji.

Testy wydajności pokazują, że Flash-Lite jest 1,5 raza szybszy od Gemini 2.0 Flash przy niższych kosztach, co czyni go szczególnie przydatnym do zadań takich jak klasyfikacja, tłumaczenie, inteligentne kierowanie czy inne operacje na dużą skalę, gdzie liczy się efektywność kosztowa. Podczas gdy inne modele domyślnie korzystają z bardziej zaawansowanych (i droższych) narzędzi rozumowania do odpowiadania na pytania, Flash-Lite daje deweloperom pełną kontrolę nad tym procesem. Użytkownicy mogą włączać lub wyłączać funkcję rozumowania w zależności od indywidualnych potrzeb, a mimo nacisku na oszczędność kosztów, Flash-Lite nie jest ograniczony pod względem możliwości.

Wersja zapoznawcza Gemini 2.5 Flash-Lite jest już dostępna w Google AI Studio oraz Vertex AI, obok stabilnych wersji 2.5 Flash i Pro. Oba modele – 2.5 Flash i Pro – są również dostępne w aplikacji Gemini, a Google udostępnił niestandardowe wersje 2.5 Flash-Lite i Flash w wyszukiwarce.

To strategiczne rozszerzenie rodziny modeli Gemini potwierdza zaangażowanie Google w demokratyzację sztucznej inteligencji poprzez oferowanie rozwiązań, które równoważą wydajność, koszty i szybkość w różnych zastosowaniach – od złożonych zadań rozumowania po przetwarzanie dużych wolumenów danych.

Source:

Latest News