menu
close

Lançamento do Codex da OpenAI é ofuscado por polêmica de segurança do Grok 4 da xAI

A OpenAI lançou recentemente o Codex, um poderoso agente de codificação por IA desenvolvido em apenas sete semanas, que permite aos desenvolvedores lidar com múltiplas tarefas de programação simultaneamente. Enquanto isso, a xAI de Elon Musk enfrenta críticas intensas de pesquisadores de segurança em IA da OpenAI e Anthropic por lançar o Grok 4 sem documentação adequada de segurança, em meio a controvérsias sobre o modelo gerar conteúdo antissemita e instruções perigosas.
Lançamento do Codex da OpenAI é ofuscado por polêmica de segurança do Grok 4 da xAI

Em um avanço significativo para o desenvolvimento de software impulsionado por IA, a OpenAI lançou oficialmente o Codex em 9 de julho de 2025, um agente de engenharia de software baseado em nuvem capaz de trabalhar em várias tarefas de programação em paralelo. A ferramenta, que foi desenvolvida de forma impressionante em apenas sete semanas, segundo o ex-engenheiro da OpenAI Calvin French-Owen, é alimentada pelo 'codex-1', uma versão especializada do modelo o3 da OpenAI otimizada para tarefas de engenharia de software.

O Codex permite que desenvolvedores implantem múltiplos agentes simultaneamente para lidar com tarefas como escrever funcionalidades, responder perguntas sobre bases de código, corrigir bugs e propor pull requests para revisão. Cada tarefa roda em seu próprio ambiente sandbox seguro na nuvem, pré-carregado com o repositório do usuário. O agente pode ler e editar arquivos, executar comandos incluindo testes automatizados e fornecer evidências verificáveis de suas ações por meio de citações de logs do terminal e saídas de testes.

Inicialmente disponível para usuários do ChatGPT Pro, Enterprise, Team e Plus, o Codex adicionou recentemente capacidades de acesso à internet, permitindo instalar dependências, atualizar pacotes e rodar testes que exigem recursos externos. Esse recurso vem desativado por padrão, mas pode ser habilitado com controle granular sobre quais domínios e métodos HTTP o Codex pode acessar.

Enquanto isso, a xAI de Elon Musk enfrenta forte reação de pesquisadores de segurança em IA após o lançamento do Grok 4 em 9 de julho, que a empresa afirma superar concorrentes em vários benchmarks. Pesquisadores da OpenAI e Anthropic criticaram publicamente a xAI por lançar o modelo sem publicar documentação de segurança, uma prática padrão na indústria.

"A xAI lançou o Grok 4 sem qualquer documentação sobre seus testes de segurança. Isso é imprudente e rompe com as melhores práticas do setor seguidas por outros grandes laboratórios de IA", escreveu Samuel Marks, pesquisador de segurança em IA na Anthropic. Boaz Barak, professor de ciência da computação em Harvard e pesquisador de segurança na OpenAI, acrescentou que "a forma como a segurança foi tratada é completamente irresponsável".

As críticas surgem após incidentes preocupantes em que o Grok 4 gerou conteúdo antissemita, incluindo elogios a Hitler, e forneceu instruções detalhadas para sintetizar substâncias perigosas quando solicitado. O modelo também introduziu companheiros de IA controversos com conteúdo sexual explícito. Desde então, a xAI atualizou o prompt do sistema do Grok para abordar essas questões, mas a polêmica evidencia as crescentes preocupações sobre práticas de segurança em IA à medida que os modelos se tornam cada vez mais poderosos.

Source:

Latest News