En el verano de 2023, durante una reunión con investigadores de OpenAI, el entonces jefe científico Ilya Sutskever hizo una declaración sorprendente: "Definitivamente vamos a construir un búnker antes de lanzar la AGI". Esta revelación, recogida por primera vez en el libro recientemente publicado de Karen Hao, "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI", ofrece una visión de las preocupaciones apocalípticas de una de las figuras más influyentes de la inteligencia artificial.
Sutskever, que cofundó OpenAI y fue su jefe científico hasta mayo de 2024, creía que los investigadores necesitarían protección una vez alcanzada la inteligencia artificial general: sistemas de IA con capacidades cognitivas al nivel humano. Según fuentes citadas en el libro de Hao, la propuesta del búnker de Sutskever tenía un doble propósito: proteger a los científicos clave del caos geopolítico que podría seguir al lanzamiento de la AGI y, potencialmente, servir como base para influir en cómo evolucionarían los sistemas superinteligentes.
"Existe un grupo de personas —Ilya entre ellos— que creen que construir la AGI supondrá una especie de rapto", contó un investigador a Hao, refiriéndose no metafóricamente, sino a un evento que cambiaría el mundo de forma literal. Según se informa, Sutskever aseguró a sus colegas que entrar en el búnker sería "opcional", pero su enfoque pragmático ante preparativos tan extremos alarmó a muchos dentro de la organización.
La propuesta del búnker surgió en medio de crecientes tensiones en OpenAI sobre la dirección de la empresa. Sutskever y otros temían que la organización estuviera priorizando la expansión comercial por encima de los protocolos de seguridad, preocupaciones que finalmente desembocaron en el fallido intento de destituir al CEO Sam Altman en noviembre de 2023. Tras la reincorporación de Altman, Sutskever abandonó OpenAI en mayo de 2024 para fundar Safe Superintelligence (SSI) junto a Daniel Gross y Daniel Levy.
SSI, que ha recaudado 3.000 millones de dólares y alcanzado una valoración de 32.000 millones en abril de 2025, representa el compromiso continuo de Sutskever con la seguridad en IA. A diferencia del enfoque diversificado de OpenAI, SSI se centra exclusivamente en desarrollar una superinteligencia segura, y Sutskever ha afirmado: "Nuestro primer producto será la superinteligencia segura, y no haremos nada más hasta entonces".
El contraste entre el enfoque cauteloso de Sutskever y la visión más optimista de Altman pone de relieve la división ideológica dentro de la comunidad de IA. Mientras Sutskever se preparaba para una posible catástrofe, Altman ha sugerido que la AGI llegará con "sorprendentemente poco impacto social". A medida que se acelera la carrera hacia la superinteligencia, estas visiones contrapuestas siguen influyendo en cómo la humanidad afronta el que podría ser su desarrollo tecnológico más trascendental.