menu
close

Ex-Cientista da OpenAI Planeou Bunker para um Mundo Pós-AGI

O antigo cientista-chefe da OpenAI, Ilya Sutskever, propôs a construção de um bunker do juízo final para proteger investigadores dos potenciais perigos após a criação da inteligência artificial geral (AGI). A revelação, detalhada no novo livro de Karen Hao, 'Empire of AI', destaca as profundas preocupações de Sutskever sobre os riscos existenciais da AGI, que acabaram por contribuir para a sua saída da OpenAI e a fundação da Safe Superintelligence Inc.
Ex-Cientista da OpenAI Planeou Bunker para um Mundo Pós-AGI

No verão de 2023, durante uma reunião com investigadores da OpenAI, o então cientista-chefe Ilya Sutskever fez uma declaração surpreendente: "Vamos definitivamente construir um bunker antes de lançarmos a AGI." Esta revelação, relatada pela primeira vez no livro recentemente publicado de Karen Hao, "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI", oferece um vislumbre das preocupações apocalípticas de uma das figuras mais influentes da IA.

Sutskever, que cofundou a OpenAI e foi seu cientista-chefe até maio de 2024, acreditava que os investigadores precisariam de proteção assim que alcançassem a inteligência artificial geral — sistemas de IA com capacidades cognitivas ao nível humano. Segundo fontes citadas no livro de Hao, a proposta do bunker de Sutskever tinha um duplo objetivo: proteger os principais cientistas do caos geopolítico que poderia seguir-se ao lançamento da AGI e, potencialmente, servir como base para influenciar a evolução dos sistemas superinteligentes.

"Há um grupo de pessoas — sendo o Ilya uma delas — que acredita que construir a AGI trará um arrebatamento", disse um investigador a Hao, referindo-se não de forma metafórica, mas a um evento literal que mudaria o mundo. Sutskever terá assegurado aos colegas que entrar no bunker seria "opcional", mas a sua abordagem pragmática a preparativos tão extremos alarmou muitos dentro da organização.

A proposta do bunker surgiu num contexto de tensões crescentes na OpenAI quanto à direção da empresa. Sutskever e outros temiam que a organização estivesse a dar prioridade à expansão comercial em detrimento dos protocolos de segurança — preocupações que acabaram por levar à tentativa falhada de destituir o CEO Sam Altman em novembro de 2023. Após a reintegração de Altman, Sutskever saiu da OpenAI em maio de 2024 para fundar a Safe Superintelligence (SSI) com Daniel Gross e Daniel Levy.

A SSI, que angariou 3 mil milhões de dólares e atingiu uma valorização de 32 mil milhões de dólares em abril de 2025, representa o compromisso contínuo de Sutskever com a segurança da IA. Ao contrário da abordagem diversificada da OpenAI, a SSI dedica-se exclusivamente ao desenvolvimento de superinteligência segura, com Sutskever a afirmar: "O nosso primeiro produto será a superinteligência segura, e não faremos mais nada até lá".

O contraste entre a abordagem cautelosa de Sutskever e a visão mais optimista de Altman evidencia a divisão ideológica existente na comunidade da IA. Enquanto Sutskever se preparava para uma potencial catástrofe, Altman sugeriu que a AGI chegará com "surpreendentemente pouco impacto social". À medida que a corrida para a superinteligência se intensifica, estas visões concorrentes continuam a moldar a forma como a humanidade encara aquele que poderá ser o seu desenvolvimento tecnológico mais consequente.

Source: Naturalnews.com

Latest News