En el verano de 2023, durante una reunión con investigadores de OpenAI, el entonces científico en jefe Ilya Sutskever hizo una declaración sorprendente: "Definitivamente vamos a construir un búnker antes de liberar la AGI". Esta revelación, reportada por primera vez en el libro recientemente publicado de Karen Hao, "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI", ofrece una visión de las preocupaciones apocalípticas que albergaba una de las figuras más influyentes de la inteligencia artificial.
Sutskever, quien cofundó OpenAI y se desempeñó como su científico en jefe hasta mayo de 2024, creía que los investigadores necesitarían protección una vez que lograran la inteligencia artificial general—sistemas de IA con capacidades cognitivas a nivel humano. Según fuentes citadas en el libro de Hao, la propuesta del búnker de Sutskever tenía un doble propósito: proteger a los científicos clave del caos geopolítico que podría seguir a la liberación de la AGI y, potencialmente, servir como base para influir en cómo evolucionarían los sistemas superinteligentes.
"Hay un grupo de personas—Ilya entre ellos—que creen que construir la AGI traerá un rapto", dijo un investigador a Hao, refiriéndose no metafóricamente, sino a un evento que literalmente cambiaría el mundo. Según se informa, Sutskever aseguró a sus colegas que entrar al búnker sería "opcional", pero su enfoque directo ante preparativos tan extremos alarmó a muchos dentro de la organización.
La propuesta del búnker surgió en medio de crecientes tensiones en OpenAI sobre la dirección de la empresa. Sutskever y otros estaban preocupados de que la organización priorizara la expansión comercial sobre los protocolos de seguridad—preocupaciones que eventualmente llevaron al fallido intento de destituir al CEO Sam Altman en noviembre de 2023. Tras la reincorporación de Altman, Sutskever dejó OpenAI en mayo de 2024 para fundar Safe Superintelligence (SSI) junto con Daniel Gross y Daniel Levy.
SSI, que ha recaudado 3 mil millones de dólares y alcanzado una valuación de 32 mil millones de dólares en abril de 2025, representa el compromiso continuo de Sutskever con la seguridad en la IA. A diferencia del enfoque diversificado de OpenAI, SSI se enfoca exclusivamente en desarrollar superinteligencia segura, y Sutskever afirmó: "Nuestro primer producto será la superinteligencia segura, y no haremos nada más hasta entonces".
El contraste entre el enfoque cauteloso de Sutskever y la visión más optimista de Altman resalta la división ideológica dentro de la comunidad de IA. Mientras Sutskever se preparaba para una posible catástrofe, Altman ha sugerido que la AGI llegará con "sorprendentemente poco impacto social". A medida que se acelera la carrera hacia la superinteligencia, estas visiones opuestas continúan moldeando cómo la humanidad aborda lo que podría ser su desarrollo tecnológico más trascendental.