menu
close

Google prezentuje Gemini 2.5 Deep Think na I/O 2025

Google ogłosił znaczące ulepszenia modeli AI Gemini 2.5 podczas konferencji I/O 2025, wprowadzając Deep Think – eksperymentalny tryb zaawansowanego rozumowania, który pozwala modelom rozważać wiele hipotez przed udzieleniem odpowiedzi. Firma zintegrowała LearnLM bezpośrednio z Gemini 2.5, czyniąc go według własnych testów wiodącym modelem do nauki na świecie. Gemini 2.5 Flash, nowa wersja zapoznawcza zoptymalizowana pod kątem szybkości i wydajności, będzie dostępna dla wszystkich w aplikacji Gemini oraz dla deweloperów poprzez Google AI Studio na początku czerwca.
Google prezentuje Gemini 2.5 Deep Think na I/O 2025

Google zaprezentował znaczące aktualizacje swojej platformy AI Gemini podczas dorocznej konferencji deweloperskiej I/O 2025, prezentując postępy w zakresie zdolności rozumowania oraz zastosowań edukacyjnych.

Najważniejszą zapowiedzią było wprowadzenie Deep Think – eksperymentalnego trybu zaawansowanego rozumowania dla Gemini 2.5 Pro. Ta nowa funkcja wykorzystuje techniki badawcze, które umożliwiają modelowi rozważenie wielu hipotez przed udzieleniem odpowiedzi. Według Google, 2.5 Pro Deep Think osiąga imponujące wyniki w 2025 USAMO, jednym z najtrudniejszych obecnie testów matematycznych, oraz prowadzi w LiveCodeBench – wymagającym benchmarku dla kodowania na poziomie konkursowym.

Google ogłosił również, że LearnLM został bezpośrednio zintegrowany z Gemini 2.5, czyniąc go „wiodącym modelem do nauki na świecie”. Jak wynika z najnowszego raportu firmy, Gemini 2.5 Pro przewyższył konkurencję we wszystkich kategoriach zasad nauk o uczeniu się. Model ten zajmuje obecnie czołowe miejsca na popularnych światowych listach rankingowych, takich jak WebDev Arena dla kodowania oraz LMArena, która mierzy preferencje użytkowników względem odpowiedzi modeli. Dzięki integracji z LearnLM, rodziną modeli Google dostosowanych do edukacji, 2.5 Pro jest promowany jako wiodący model do nauki, preferowany przez nauczycieli za skuteczność w nauczaniu.

Dyrektor generalny Google, Sundar Pichai, podkreślił szybki postęp modeli Gemini, zauważając, że „Gemini 2.5 Pro dominuje na liście LMArena we wszystkich kategoriach”. Firma zaprezentowała także Gemini 2.5 Flash, określany jako „potężny i najbardziej wydajny model roboczy”, który „cieszy się ogromną popularnością wśród deweloperów ze względu na szybkość i niskie koszty”. Nowy 2.5 Flash poprawia wyniki w kluczowych benchmarkach dotyczących rozumowania, multimodalności, kodu oraz długiego kontekstu, zajmując drugie miejsce na liście LMArena – tuż za 2.5 Pro.

Gemini 2.5 Flash jest już dostępny dla wszystkich w aplikacji Gemini, a ogólna dostępność w Google AI Studio dla deweloperów oraz Vertex AI dla przedsiębiorstw nastąpi na początku czerwca. Wkrótce potem dołączy Gemini 2.5 Pro. Google przypisuje ten postęp „nieustającej pracy zespołów w całej firmie nad ulepszaniem naszych technologii oraz ich bezpiecznym i odpowiedzialnym wdrażaniem”.

Za tymi osiągnięciami stoi Ironwood – siódma generacja procesorów Tensor Processing Unit (TPU) od Google, określana przez firmę jako „najpotężniejszy, najbardziej zaawansowany i energooszczędny TPU w historii”. Ironwood został zaprojektowany specjalnie do obsługi modeli AI opartych na rozumowaniu i wnioskowaniu na dużą skalę i wspiera najbardziej wymagające zadania szkoleniowe i wdrożeniowe Google.

Dzięki tym aktualizacjom Google kontynuuje przesuwanie granic możliwości rozumowania AI i zastosowań edukacyjnych, ustanawiając nowe standardy wydajności przy jednoczesnym podkreślaniu odpowiedzialnego rozwoju i wdrażania.

Source: Blog

Latest News