Google zet een grote stap richting de integratie van AI in de dagelijkse workflow van ontwikkelaars met de introductie van Gemini CLI, een open-source AI-agent die krachtige taalmodelmogelijkheden direct naar de terminalomgeving brengt.
De nieuwe tool, uitgebracht onder de Apache 2.0-licentie, geeft ontwikkelaars directe toegang tot het Gemini 2.5 Pro-model van Google via een lichte command-line interface. Hoewel Gemini CLI in de eerste plaats is ontworpen voor programmeertaken, gaat de functionaliteit verder dan alleen codegeneratie: de tool ondersteunt ook contentcreatie, probleemoplossing, diepgaand onderzoek en taakbeheer — allemaal zonder de terminal te verlaten.
"Voor ontwikkelaars is de command-line interface niet zomaar een tool; het is hun thuis," aldus Google in de aankondiging. "De efficiëntie, alomtegenwoordigheid en draagbaarheid van de terminal maken het tot het favoriete hulpmiddel om werk gedaan te krijgen."
Ontwikkelaars kunnen Gemini CLI gratis gebruiken met een persoonlijk Google-account, met royale limieten van 60 modelverzoeken per minuut en 1.000 verzoeken per dag. Voor meer controle of gebruik op grotere schaal kunnen gebruikers de tool ook configureren met API-sleutels van Google AI Studio of Vertex AI.
Doordat Gemini CLI volledig open-source is, kunnen ontwikkelaars de code inspecteren, de beveiligingsimplicaties begrijpen en bijdragen aan verbeteringen. Google heeft de tool ontworpen om zeer uitbreidbaar te zijn, met ondersteuning voor opkomende standaarden zoals het Model Context Protocol (MCP) en aanpasbare systeemopdrachten via GEMINI.md-bestanden.
Gemini CLI integreert bovendien met Google's AI-codeassistent Gemini Code Assist, waardoor ontwikkelaars naadloos kunnen schakelen tussen AI-assistentie in de terminal en in de IDE, met gebruik van hetzelfde model als basis.
Tegelijk met de aankondiging van de CLI deelde Google ook vooruitgang op het gebied van robotica, aangedreven door Gemini 2.5. Het Gemini Robotics On-Device-model van het bedrijf demonstreert algemene behendigheid en snelle taakadaptatie, geoptimaliseerd om efficiënt te draaien op robotica-hardware. Dit model werkt onafhankelijk van netwerkverbindingen, waardoor het geschikt is voor toepassingen met lage latentie en omgevingen met wisselende connectiviteit.
Het robotica-model volgt instructies in natuurlijke taal en toont behendigheid bij uiteenlopende taken, zoals het openritsen van tassen, het vouwen van kleding en het assembleren van producten. Het is het eerste vision-language-action (VLA)-model van Google DeepMind dat beschikbaar is voor fine-tuning, waarmee de mogelijkheden van Gemini zich verder uitbreiden van digitale omgevingen naar fysieke, belichaamde intelligentie.