A Google deu um passo importante na integração da IA nos fluxos de trabalho diários dos programadores com o lançamento do Gemini CLI, um agente de IA open-source que traz capacidades avançadas de modelos de linguagem diretamente para o ambiente de terminal.
A nova ferramenta, lançada sob licença Apache 2.0, oferece aos programadores acesso imediato ao modelo Gemini 2.5 Pro da Google através de uma interface de linha de comandos leve. Embora tenha sido concebida principalmente para tarefas de programação, o Gemini CLI vai além da geração de código, suportando criação de conteúdos, resolução de problemas, pesquisa aprofundada e gestão de tarefas — tudo sem sair do terminal.
"Para os programadores, a interface de linha de comandos não é apenas uma ferramenta; é casa", afirmou a Google no seu anúncio. "A eficiência, ubiquidade e portabilidade do terminal fazem dele o utilitário de eleição para realizar trabalho."
Os programadores podem aceder ao Gemini CLI gratuitamente com uma conta Google pessoal, beneficiando de limites generosos de utilização: 60 pedidos ao modelo por minuto e 1.000 pedidos por dia. Para maior controlo ou casos de utilização de maior volume, os utilizadores podem configurar a ferramenta com chaves API do Google AI Studio ou do Vertex AI.
O carácter totalmente open-source do Gemini CLI permite aos programadores inspecionar o código, compreender as suas implicações de segurança e contribuir com melhorias. A Google desenhou a ferramenta para ser altamente extensível, suportando padrões emergentes como o Model Context Protocol (MCP) e prompts de sistema personalizáveis através de ficheiros GEMINI.md.
O Gemini CLI integra-se ainda com o assistente de programação por IA da Google, o Gemini Code Assist, permitindo aos programadores alternar facilmente entre assistência baseada no terminal e no IDE, utilizando o mesmo modelo de base.
A par do anúncio do CLI, a Google partilhou avanços em aplicações de robótica potenciadas pelo Gemini 2.5. O modelo Gemini Robotics On-Device da empresa demonstra destreza generalista e rápida adaptação a tarefas, estando otimizado para funcionar de forma eficiente em hardware robótico. Este modelo opera de forma independente da conectividade de rede, tornando-o adequado para aplicações sensíveis à latência e ambientes com conectividade intermitente.
O modelo de robótica segue instruções em linguagem natural e demonstra destreza em várias tarefas, incluindo abrir fechos de sacos, dobrar roupa e montar produtos. Trata-se do primeiro modelo de visão-linguagem-ação (VLA) da Google DeepMind disponível para afinação, expandindo ainda mais as capacidades do Gemini para além dos ambientes digitais, rumo à inteligência física incorporada.