U ljeto 2023. godine, tijekom sastanka s istraživačima OpenAI-ja, tadašnji glavni znanstvenik Ilya Sutskever dao je zapanjujuću izjavu: "Definitivno ćemo izgraditi bunker prije nego što objavimo AGI." Ovo otkriće, prvi put objavljeno u nedavno izdanoj knjizi Karen Hao "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI", pruža uvid u apokaliptične brige jednog od najutjecajnijih ljudi u području umjetne inteligencije.
Sutskever, koji je suosnivač OpenAI-ja i obnašao je funkciju glavnog znanstvenika do svibnja 2024., smatrao je da će istraživači trebati zaštitu nakon što postignu umjetnu opću inteligenciju—AI sustave s kognitivnim sposobnostima na razini čovjeka. Prema izvorima navedenim u knjizi Hao, Sutskeverov prijedlog bunkera imao je dvostruku svrhu: zaštititi ključne znanstvenike od geopolitičkog kaosa koji bi mogao uslijediti nakon objave AGI-ja i potencijalno poslužiti kao baza za utjecaj na razvoj superinteligentnih sustava.
"Postoji skupina ljudi—Ilya je jedan od njih—koji vjeruju da će izgradnja AGI-ja donijeti svojevrsno uskrsnuće," rekao je jedan istraživač Hao, misleći pritom ne metaforički, već na doslovno događanje koje mijenja svijet. Sutskever je navodno uvjeravao kolege da će ulazak u bunker biti "opcionalan", no njegov racionalan pristup tako ekstremnim pripremama zabrinuo je mnoge unutar organizacije.
Prijedlog o bunkeru pojavio se usred rastućih napetosti u OpenAI-ju oko smjera tvrtke. Sutskever i drugi brinuli su da organizacija daje prednost komercijalnom širenju nad sigurnosnim protokolima—zabrinutosti koje su na kraju dovele do neuspjelog pokušaja smjene izvršnog direktora Sama Altmana u studenom 2023. Nakon Altmanovog povratka, Sutskever je napustio OpenAI u svibnju 2024. i osnovao Safe Superintelligence (SSI) zajedno s Danielom Grossom i Danielom Levyjem.
SSI, koji je prikupio 3 milijarde dolara i dosegao procijenjenu vrijednost od 32 milijarde dolara u travnju 2025., predstavlja Sutskeverovu trajnu predanost sigurnosti umjetne inteligencije. Za razliku od raznolikog pristupa OpenAI-ja, SSI se isključivo fokusira na razvoj sigurne superinteligencije, pri čemu Sutskever ističe: "Naš prvi proizvod bit će sigurna superinteligencija i nećemo raditi ništa drugo dok to ne ostvarimo."
Kontrast između Sutskeverovog opreznog pristupa i Altmanovog optimističnijeg pogleda ističe ideološki raskol unutar AI zajednice. Dok se Sutskever pripremao za moguću katastrofu, Altman je sugerirao da će AGI doći uz "iznenađujuće mali društveni utjecaj". Kako se utrka prema superinteligenciji ubrzava, ove suprotstavljene vizije i dalje oblikuju način na koji čovječanstvo pristupa možda najvažnijem tehnološkom razvoju u svojoj povijesti.