Noong tag-init ng 2023, sa isang pagpupulong kasama ang mga mananaliksik ng OpenAI, nagbigay ng nakakagulat na pahayag si Ilya Sutskever, noo’y punong siyentipiko: "Siguradong magtatayo tayo ng bunker bago natin ilabas ang AGI." Ang rebelasyong ito, unang iniulat sa bagong aklat ni Karen Hao na "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI," ay nagbibigay-liwanag sa mga apokaliptikong pangamba ng isa sa mga pinakaimpluwensyal na personalidad sa AI.
Si Sutskever, na co-founder ng OpenAI at nagsilbing punong siyentipiko nito hanggang Mayo 2024, ay naniniwalang kakailanganin ng mga mananaliksik ang proteksyon kapag naabot na ang artificial general intelligence—mga AI system na may kakayahang mag-isip tulad ng tao. Ayon sa mga sanggunian sa aklat ni Hao, may dalawang layunin ang panukalang bunker ni Sutskever: upang maprotektahan ang mga pangunahing siyentipiko mula sa posibleng kaguluhang geopolitikal na maaaring sumunod sa paglabas ng AGI, at upang magsilbing basehan para impluwensiyahan kung paano uusbong ang mga superintelligent na sistema.
"May grupo ng mga tao—kasama si Ilya—na naniniwalang ang paggawa ng AGI ay magdadala ng isang rapture," ayon sa isang mananaliksik kay Hao, na hindi ito metapora kundi isang literal na pangyayaring magbabago sa mundo. Iniulat na tiniyak ni Sutskever sa kanyang mga kasamahan na "opsyonal" ang pagpasok sa bunker, ngunit ang kanyang seryosong pagtrato sa ganitong matinding paghahanda ay nagdulot ng pangamba sa marami sa organisasyon.
Lumitaw ang panukalang bunker sa gitna ng tumitinding tensyon sa OpenAI tungkol sa direksyon ng kumpanya. Nag-aalala si Sutskever at iba pa na inuuna ng organisasyon ang komersyal na paglago kaysa sa mga panuntunan sa kaligtasan—mga alalahaning nauwi sa nabigong pagtatangkang patalsikin si CEO Sam Altman noong Nobyembre 2023. Matapos maibalik si Altman, umalis si Sutskever sa OpenAI noong Mayo 2024 upang itatag ang Safe Superintelligence (SSI) kasama sina Daniel Gross at Daniel Levy.
Ang SSI, na nakalikom ng $3 bilyon at nagkaroon ng halagang $32 bilyon noong Abril 2025, ay sumasalamin sa patuloy na dedikasyon ni Sutskever sa kaligtasan ng AI. Hindi tulad ng mas malawak na estratehiya ng OpenAI, nakatuon lamang ang SSI sa pagbuo ng ligtas na superintelligence, na sinabi ni Sutskever, "Ang una naming produkto ay ang ligtas na superintelligence, at wala kaming gagawin pang iba hanggang doon."
Ang pagkakaiba ng maingat na pananaw ni Sutskever at ng mas optimistikong pananaw ni Altman ay nagpapakita ng ideolohikal na hati sa komunidad ng AI. Habang naghahanda si Sutskever para sa posibleng sakuna, iminungkahi naman ni Altman na darating ang AGI na may "nakakagulat na kaunting epekto sa lipunan." Habang bumibilis ang karera tungo sa superintelligence, patuloy na hinuhubog ng magkaibang pananaw na ito kung paano haharapin ng sangkatauhan ang maaaring pinakamahalagang pag-unlad sa teknolohiya.