Google wprowadziło istotne ulepszenie do swoich flagowych modeli AI, dodając podsumowania toku rozumowania zarówno dla modeli Gemini 2.5 Pro, jak i Flash, dostępnych poprzez Gemini API oraz Vertex AI.
Podsumowania toku rozumowania przekształcają surowy proces myślowy modelu w czytelny, uporządkowany format z nagłówkami, kluczowymi informacjami oraz szczegółami dotyczącymi działań modelu, na przykład w momentach korzystania z narzędzi. Funkcja ta stanowi ważny krok naprzód w kierunku zwiększenia przejrzystości i możliwości debugowania rozumowania AI.
"Mamy nadzieję, że dzięki bardziej uporządkowanemu i przejrzystemu formatowi procesu myślowego, deweloperzy i użytkownicy będą mogli łatwiej zrozumieć i debugować interakcje z modelami Gemini" – poinformowało Google podczas ogłoszenia na Google I/O 2025.
Możliwość korzystania z podsumowań toku rozumowania pojawia się wraz z innymi usprawnieniami rodziny Gemini 2.5, w tym rozszerzeniem budżetów myślowych na Gemini 2.5 Pro. Funkcja ta, wcześniej dostępna wyłącznie w modelu Flash, pozwala deweloperom kontrolować liczbę tokenów, które model wykorzystuje do rozumowania przed udzieleniem odpowiedzi, a nawet całkowicie wyłączyć tę funkcjonalność, co daje większą kontrolę nad kompromisem pomiędzy kosztami, jakością a opóźnieniami.
Dla użytkowników biznesowych podsumowania toku rozumowania to przełom w zakresie zaufania i możliwości sterowania. Organizacje oceniające wyniki AI w krytycznych zadaniach – takich jak przegląd skutków polityk, logiki kodu czy podsumowywanie złożonych badań – mogą teraz zobaczyć, w jaki sposób model doszedł do swoich wniosków, czyniąc proces decyzyjny AI bardziej przejrzystym dla interesariuszy.
Google ogłosiło, że Gemini 2.5 Flash jest już dostępny w wersji zapoznawczej w Google AI Studio dla deweloperów, w Vertex AI dla przedsiębiorstw oraz w aplikacji Gemini dla wszystkich użytkowników. Zaktualizowana wersja będzie ogólnie dostępna do produkcji na początku czerwca, a Gemini 2.5 Pro pojawi się wkrótce potem.