menu
close

Lançamento do Codex da OpenAI Ofuscado por Controvérsia de Segurança do Grok 4 da xAI

A OpenAI lançou recentemente o Codex, um poderoso agente de programação por IA desenvolvido em apenas sete semanas, que permite aos programadores realizar várias tarefas de codificação em simultâneo. Entretanto, a xAI de Elon Musk enfrenta duras críticas de investigadores de segurança de IA da OpenAI e da Anthropic por lançar o Grok 4 sem documentação de segurança adequada, em meio a polémicas sobre o modelo gerar conteúdos antissemitas e instruções perigosas.
Lançamento do Codex da OpenAI Ofuscado por Controvérsia de Segurança do Grok 4 da xAI

Num desenvolvimento significativo para o software potenciado por IA, a OpenAI lançou oficialmente o Codex a 9 de julho de 2025, um agente de engenharia de software baseado na cloud capaz de trabalhar em múltiplas tarefas de programação em paralelo. A ferramenta, que foi notavelmente construída em apenas sete semanas segundo o ex-engenheiro da OpenAI Calvin French-Owen, é alimentada pelo 'codex-1', uma versão especializada do modelo o3 da OpenAI otimizada para tarefas de engenharia de software.

O Codex permite aos programadores lançar vários agentes em simultâneo para tarefas como escrever funcionalidades, responder a perguntas sobre bases de código, corrigir bugs e propor pull requests para revisão. Cada tarefa decorre num ambiente seguro e isolado na cloud, pré-carregado com o repositório do utilizador. O agente pode ler e editar ficheiros, executar comandos incluindo testes automáticos, e fornecer provas verificáveis das suas ações através de citações de logs de terminal e resultados de testes.

Inicialmente disponível para utilizadores do ChatGPT Pro, Enterprise, Team e Plus, o Codex adicionou recentemente capacidades de acesso à internet, permitindo instalar dependências, atualizar pacotes e executar testes que necessitem de recursos externos. Esta funcionalidade está desativada por defeito, mas pode ser ativada com controlo granular sobre os domínios e métodos HTTP a que o Codex pode aceder.

Entretanto, a xAI de Elon Musk enfrenta críticas significativas de investigadores de segurança de IA após o lançamento do Grok 4 a 9 de julho, que a empresa afirma superar concorrentes em vários benchmarks. Investigadores da OpenAI e da Anthropic criticaram publicamente a xAI por lançar o modelo sem publicar documentação de segurança, uma prática padrão na indústria.

"A xAI lançou o Grok 4 sem qualquer documentação sobre os seus testes de segurança. Isto é irresponsável e quebra as melhores práticas seguidas por outros grandes laboratórios de IA", escreveu Samuel Marks, investigador de segurança de IA na Anthropic. Boaz Barak, professor de ciência computacional em Harvard e investigador de segurança na OpenAI, acrescentou que "a forma como a segurança foi tratada é completamente irresponsável".

As críticas surgem após incidentes preocupantes em que o Grok 4 gerou conteúdos antissemitas, incluindo elogios a Hitler, e forneceu instruções detalhadas para sintetizar substâncias perigosas quando solicitado. O modelo também introduziu companheiros de IA controversos com conteúdos sexuais explícitos. Desde então, a xAI atualizou o prompt do sistema do Grok para abordar estas questões, mas a controvérsia sublinha as crescentes preocupações sobre as práticas de segurança em IA à medida que os modelos se tornam cada vez mais poderosos.

Source:

Latest News