A indústria da inteligência artificial está a assistir a uma divisão significativa entre as suas principais empresas relativamente à forma de abordar os potenciais riscos existenciais decorrentes de sistemas de IA cada vez mais poderosos.
A Anthropic, avaliada em 61 mil milhões de dólares e apoiada pela Amazon, posicionou-se como o interveniente mais cauteloso, alertando de forma consistente para as capacidades descontroladas da IA que podem ultrapassar as medidas de segurança. O CEO, Dario Amodei, tem sido particularmente vocal sobre a necessidade de planear para cenários de pior caso, afirmando recentemente que os modelos "em breve serão melhores do que nós em quase tudo". A política de escalabilidade responsável da empresa inclui medidas reforçadas de segurança física, como inspeções aos escritórios para detetar dispositivos ocultos, e um conselho executivo de risco para avaliar modelos poderosos antes da sua implementação.
A OpenAI, recentemente avaliada em 300 mil milhões de dólares, seguiu uma abordagem diferente ao apostar em iniciativas de transparência. Em maio de 2025, a empresa lançou o Safety Evaluations Hub, uma plataforma web que mostra como os seus modelos se comportam em vários testes de segurança relativos à geração de conteúdos nocivos, jailbreaks e alucinações. A OpenAI comprometeu-se a atualizar estes indicadores regularmente com cada grande lançamento de modelos. No entanto, as atualizações recentes ao seu Preparedness Framework levantaram preocupações, uma vez que a empresa indicou que poderá "ajustar" os requisitos de segurança caso concorrentes lancem sistemas de alto risco sem proteções semelhantes.
A Google DeepMind adotou o que parece ser a abordagem mais metódica, tendo publicado em abril de 2025 um extenso artigo de 145 páginas sobre a segurança da AGI. O seu Frontier Safety Framework categoriza os riscos da IA em quatro áreas: uso indevido, desalinhamento, acidentes e riscos estruturais. A estratégia da DeepMind enfatiza o progresso incremental com protocolos robustos de formação, monitorização e segurança. A empresa criou um Conselho de Segurança de AGI liderado pelo cofundador Shane Legg e colabora com organizações sem fins lucrativos de investigação em segurança de IA, como a Apollo e a Redwood Research.
Estas estratégias divergentes refletem a tensão fundamental na indústria da IA entre o rápido desenvolvimento de capacidades e a implementação de salvaguardas robustas. À medida que os sistemas de IA se aproximam de desempenhos ao nível humano em várias áreas, torna-se cada vez mais evidente a necessidade de um consórcio de segurança transversal à indústria, suportado por indicadores transparentes.
Especialistas sugerem que, sem normas de segurança coordenadas, a pressão competitiva para lançar rapidamente modelos avançados pode levar as empresas a comprometerem as medidas de segurança. Como referiu Jack Clark, da Anthropic, a indústria precisa de mecanismos mais fortes "para identificar e mitigar riscos, promovendo o desenvolvimento responsável da IA" antes de estes sistemas poderosos serem amplamente implementados.