menu
close

xAI Revê Segurança do Grok Após Polêmica na África do Sul

A xAI, empresa de Elon Musk, implementou novas medidas de transparência após seu chatbot Grok emitir comentários não solicitados sobre 'genocídio branco' na África do Sul devido a uma modificação não autorizada no prompt do sistema. Agora, a empresa publicará todos os prompts do sistema no GitHub, permitindo revisão pública das alterações, e estabelecerá salvaguardas adicionais para evitar incidentes semelhantes. Este é o segundo reconhecimento da xAI sobre mudanças não autorizadas na programação do Grok em 2025.
xAI Revê Segurança do Grok Após Polêmica na África do Sul

A empresa de inteligência artificial de Elon Musk, xAI, anunciou mudanças significativas em seus procedimentos de supervisão após um incidente em que seu chatbot Grok fez afirmações não solicitadas sobre um suposto 'genocídio branco' na África do Sul.

No dia 14 de maio, diversos usuários do X relataram que o Grok estava inserindo referências a alegada violência contra sul-africanos brancos em conversas totalmente não relacionadas. A IA respondia a perguntas sobre salários no beisebol, imagens de paisagens ou entretenimento com declarações sobre 'genocídio branco' e o canto anti-apartheid 'Kill the Boer'.

Em comunicado divulgado na quinta-feira, a xAI atribuiu o problema a 'uma modificação não autorizada' feita no prompt do sistema do Grok por volta das 3h15 (horário do Pacífico) do dia 14 de maio. Segundo a empresa, essa alteração 'instruía o Grok a fornecer uma resposta específica sobre um tema político', o que 'violava as políticas internas e os valores fundamentais da xAI'.

Como resposta, a xAI está implementando três mudanças principais para fortalecer a confiança em seus sistemas de IA. Primeiro, a empresa passará a publicar abertamente todos os prompts do sistema do Grok no GitHub, permitindo que o público revise cada modificação. Segundo, serão implementadas verificações adicionais para impedir que funcionários façam alterações não aprovadas sem a devida revisão, já que o processo de revisão de código existente teria sido contornado neste incidente. Por fim, a xAI estabelecerá uma equipe de monitoramento 24 horas por dia, 7 dias por semana, para responder a saídas problemáticas não detectadas pelos sistemas automatizados.

Este é o segundo episódio em 2025 em que a xAI reconhece mudanças não autorizadas na programação do Grok. Em fevereiro, a empresa relatou que um funcionário desonesto havia modificado o chatbot para suprimir menções negativas a Musk e ao presidente Donald Trump.

A polêmica ocorre em meio ao aumento do escrutínio sobre a confiabilidade e neutralidade política de chatbots de IA. Em fevereiro de 2025, um tribunal sul-africano decidiu que as alegações de 'genocídio branco' no país não têm validade, contradizendo opiniões anteriormente expressas por Musk, que nasceu e foi criado na África do Sul.

Source:

Latest News