Google har taget et markant skridt mod at integrere AI i udvikleres daglige arbejdsgange med lanceringen af Gemini CLI, en open source AI-agent, der bringer kraftfulde sprogmodelleringsevner direkte ind i terminalmiljøet.
Det nye værktøj, der er udgivet under Apache 2.0-licensen, giver udviklere øjeblikkelig adgang til Googles Gemini 2.5 Pro-model via et letvægts kommandolinje-interface. Selvom Gemini CLI primært er designet til kodningsopgaver, rækker funktionaliteten ud over kodegenerering og understøtter også indholdsskabelse, problemløsning, dybdegående research og opgavestyring – alt sammen uden at forlade terminalen.
"For udviklere er kommandolinje-interfacet ikke bare et værktøj; det er hjemmet," udtalte Google i deres annoncering. "Terminalens effektivitet, allestedsnærværelse og portabilitet gør den til det foretrukne redskab til at få arbejdet gjort."
Udviklere kan gratis få adgang til Gemini CLI med en personlig Google-konto og får generøse brugsgrænser på 60 modelanmodninger pr. minut og 1.000 anmodninger pr. dag. For mere kontrol eller højere forbrugsbehov kan brugere alternativt konfigurere værktøjet med API-nøgler fra Google AI Studio eller Vertex AI.
Den fuldt open source-natur ved Gemini CLI gør det muligt for udviklere at inspicere koden, forstå sikkerhedsaspekterne og bidrage med forbedringer. Google har designet værktøjet til at være meget udvideligt med understøttelse af nye standarder som Model Context Protocol (MCP) og tilpasningsbare systemprompter via GEMINI.md-filer.
Gemini CLI integrerer også med Googles AI-kodeassistent, Gemini Code Assist, hvilket gør det muligt for udviklere at skifte problemfrit mellem terminalbaseret og IDE-baseret AI-assistance med samme modelgrundlag.
Sideløbende med annonceringen af CLI’en delte Google fremskridt inden for robotapplikationer drevet af Gemini 2.5. Selskabets Gemini Robotics On-Device-model demonstrerer alsidig fingerfærdighed og hurtig opgave-tilpasning, optimeret til at køre effektivt på robot-hardware. Denne model fungerer uafhængigt af netværksforbindelse, hvilket gør den velegnet til applikationer med lav latenstid og miljøer med ustabil forbindelse.
Robotmodellen følger naturlige sprogkommandoer og udviser fingerfærdighed i forskellige opgaver, herunder at åbne lynlåse på tasker, folde tøj og samle produkter. Det markerer Google DeepMinds første vision-sprog-handling (VLA)-model, der kan finjusteres, og udvider dermed Geminis kapaciteter fra digitale miljøer til fysisk, legemliggjort intelligens.