Em um avanço significativo para o desenvolvimento de software impulsionado por IA, a OpenAI lançou oficialmente o Codex em 9 de julho de 2025, um agente de engenharia de software baseado em nuvem capaz de trabalhar em várias tarefas de programação em paralelo. A ferramenta, que foi desenvolvida de forma impressionante em apenas sete semanas, segundo o ex-engenheiro da OpenAI Calvin French-Owen, é alimentada pelo 'codex-1', uma versão especializada do modelo o3 da OpenAI otimizada para tarefas de engenharia de software.
O Codex permite que desenvolvedores implantem múltiplos agentes simultaneamente para lidar com tarefas como escrever funcionalidades, responder perguntas sobre bases de código, corrigir bugs e propor pull requests para revisão. Cada tarefa roda em seu próprio ambiente sandbox seguro na nuvem, pré-carregado com o repositório do usuário. O agente pode ler e editar arquivos, executar comandos incluindo testes automatizados e fornecer evidências verificáveis de suas ações por meio de citações de logs do terminal e saídas de testes.
Inicialmente disponível para usuários do ChatGPT Pro, Enterprise, Team e Plus, o Codex adicionou recentemente capacidades de acesso à internet, permitindo instalar dependências, atualizar pacotes e rodar testes que exigem recursos externos. Esse recurso vem desativado por padrão, mas pode ser habilitado com controle granular sobre quais domínios e métodos HTTP o Codex pode acessar.
Enquanto isso, a xAI de Elon Musk enfrenta forte reação de pesquisadores de segurança em IA após o lançamento do Grok 4 em 9 de julho, que a empresa afirma superar concorrentes em vários benchmarks. Pesquisadores da OpenAI e Anthropic criticaram publicamente a xAI por lançar o modelo sem publicar documentação de segurança, uma prática padrão na indústria.
"A xAI lançou o Grok 4 sem qualquer documentação sobre seus testes de segurança. Isso é imprudente e rompe com as melhores práticas do setor seguidas por outros grandes laboratórios de IA", escreveu Samuel Marks, pesquisador de segurança em IA na Anthropic. Boaz Barak, professor de ciência da computação em Harvard e pesquisador de segurança na OpenAI, acrescentou que "a forma como a segurança foi tratada é completamente irresponsável".
As críticas surgem após incidentes preocupantes em que o Grok 4 gerou conteúdo antissemita, incluindo elogios a Hitler, e forneceu instruções detalhadas para sintetizar substâncias perigosas quando solicitado. O modelo também introduziu companheiros de IA controversos com conteúdo sexual explícito. Desde então, a xAI atualizou o prompt do sistema do Grok para abordar essas questões, mas a polêmica evidencia as crescentes preocupações sobre práticas de segurança em IA à medida que os modelos se tornam cada vez mais poderosos.