No verão de 2023, durante uma reunião com pesquisadores da OpenAI, o então cientista-chefe Ilya Sutskever fez uma declaração surpreendente: "Definitivamente vamos construir um bunker antes de liberar a AGI." Essa revelação, relatada pela primeira vez no recém-lançado livro de Karen Hao, "Império da IA: Sonhos e Pesadelos na OpenAI de Sam Altman", oferece um vislumbre das preocupações apocalípticas de uma das figuras mais influentes da inteligência artificial.
Sutskever, que cofundou a OpenAI e atuou como cientista-chefe até maio de 2024, acreditava que os pesquisadores precisariam de proteção assim que alcançassem a inteligência artificial geral—sistemas de IA com capacidades cognitivas equivalentes às humanas. Segundo fontes citadas no livro de Hao, a proposta do bunker de Sutskever tinha dois objetivos: proteger cientistas-chave do caos geopolítico que poderia seguir a liberação da AGI e, potencialmente, servir como base para influenciar como os sistemas superinteligentes evoluiriam.
"Há um grupo de pessoas—Ilya entre eles—que acredita que construir a AGI trará um arrebatamento", disse um pesquisador a Hao, referindo-se não metaforicamente, mas a um evento literal capaz de mudar o mundo. Sutskever teria assegurado aos colegas que entrar no bunker seria "opcional", mas sua abordagem direta a preparativos tão extremos alarmou muitos dentro da organização.
A proposta do bunker surgiu em meio a tensões crescentes na OpenAI sobre os rumos da empresa. Sutskever e outros temiam que a organização estivesse priorizando a expansão comercial em detrimento dos protocolos de segurança—preocupações que culminaram na tentativa fracassada de destituir o CEO Sam Altman em novembro de 2023. Após a recondução de Altman, Sutskever deixou a OpenAI em maio de 2024 para fundar a Safe Superintelligence (SSI) com Daniel Gross e Daniel Levy.
A SSI, que já arrecadou US$ 3 bilhões e atingiu uma avaliação de US$ 32 bilhões em abril de 2025, representa o compromisso contínuo de Sutskever com a segurança da IA. Diferentemente da abordagem diversificada da OpenAI, a SSI foca exclusivamente no desenvolvimento de uma superinteligência segura, com Sutskever afirmando: "Nosso primeiro produto será a superinteligência segura, e não faremos mais nada até lá."
O contraste entre a postura cautelosa de Sutskever e a visão mais otimista de Altman evidencia a divisão ideológica dentro da comunidade de IA. Enquanto Sutskever se preparava para uma possível catástrofe, Altman sugeriu que a AGI chegará com "surpreendentemente pouco impacto social". À medida que a corrida pela superinteligência se intensifica, essas visões opostas continuam a moldar como a humanidade encara aquele que pode ser seu desenvolvimento tecnológico mais importante.