Google wykonało znaczący krok w kierunku integracji sztucznej inteligencji z codzienną pracą programistów, udostępniając Gemini CLI – otwartoźródłowego agenta AI, który wprowadza zaawansowane możliwości modeli językowych bezpośrednio do środowiska terminala.
Nowe narzędzie, wydane na licencji Apache 2.0, zapewnia deweloperom natychmiastowy dostęp do modelu Gemini 2.5 Pro firmy Google za pośrednictwem lekkiego interfejsu wiersza poleceń. Choć Gemini CLI powstało głównie z myślą o zadaniach programistycznych, jego funkcjonalność wykracza poza generowanie kodu – wspiera także tworzenie treści, rozwiązywanie problemów, pogłębione badania oraz zarządzanie zadaniami, wszystko bez konieczności opuszczania terminala.
„Dla programistów interfejs wiersza poleceń to nie tylko narzędzie – to dom” – podkreśliło Google w oficjalnym komunikacie. „Efektywność, wszechobecność i przenośność terminala sprawiają, że jest to podstawowe narzędzie do wykonywania pracy.”
Deweloperzy mogą korzystać z Gemini CLI bezpłatnie, używając osobistego konta Google, z hojnymi limitami: 60 zapytań do modelu na minutę oraz 1000 zapytań dziennie. W przypadku potrzeby większej kontroli lub obsługi wyższego wolumenu, użytkownicy mogą skonfigurować narzędzie z kluczami API z Google AI Studio lub Vertex AI.
Otwartoźródłowy charakter Gemini CLI pozwala programistom analizować kod, oceniać kwestie bezpieczeństwa oraz wnosić własne usprawnienia. Google zaprojektowało narzędzie jako wysoce rozszerzalne, z obsługą nowych standardów, takich jak Model Context Protocol (MCP) oraz możliwością personalizacji promptów systemowych za pomocą plików GEMINI.md.
Gemini CLI integruje się również z asystentem programistycznym Google – Gemini Code Assist – umożliwiając płynne przechodzenie między wsparciem AI w terminalu a środowiskiem IDE, przy wykorzystaniu tego samego modelu AI.
Wraz z premierą CLI, Google zaprezentowało także postępy w zastosowaniach robotyki opartych na Gemini 2.5. Model Gemini Robotics On-Device demonstruje wszechstronną zręczność i szybkie dostosowywanie się do zadań, zoptymalizowany do wydajnej pracy na sprzęcie robotycznym. Model ten działa niezależnie od połączenia sieciowego, co czyni go odpowiednim dla aplikacji wymagających niskich opóźnień oraz środowisk z niestabilną łącznością.
Model robotyczny podąża za instrukcjami w języku naturalnym i wykazuje zręczność w różnych zadaniach, takich jak rozpinanie toreb, składanie ubrań czy montaż produktów. To pierwszy model typu vision-language-action (VLA) od Google DeepMind dostępny do dalszego dostrajania, co jeszcze bardziej rozszerza możliwości Gemini poza środowiska cyfrowe, w kierunku fizycznej inteligencji ucieleśnionej.