Sommaren 2023, under ett möte med OpenAI-forskare, gjorde dåvarande chefsforskaren Ilya Sutskever ett häpnadsväckande uttalande: "Vi kommer definitivt att bygga en bunker innan vi släpper AGI." Denna uppseendeväckande plan, som först rapporterades i Karen Haos nyligen utgivna bok "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI", ger en inblick i de apokalyptiska farhågor som en av AI-världens mest inflytelserika personer bär på.
Sutskever, som var med och grundade OpenAI och tjänstgjorde som dess chefsforskare fram till maj 2024, ansåg att forskarna skulle behöva skydd när de väl uppnått artificiell generell intelligens—AI-system med mänsklig nivå på kognitiva förmågor. Enligt källor i Haos bok hade Sutskevers bunkerförslag ett dubbelt syfte: att skydda nyckelforskare från den geopolitiska oro som kan följa på AGI:s lansering och potentiellt fungera som en bas för att påverka hur superintelligenta system utvecklas.
"Det finns en grupp människor—Ilya är en av dem—som tror att byggandet av AGI kommer att leda till en sorts uppryckelse," berättade en forskare för Hao, och syftade då inte metaforiskt utan på en bokstavligt världsomvälvande händelse. Sutskever ska ha försäkrat kollegor om att det skulle vara "frivilligt" att gå in i bunkern, men hans sakliga inställning till så extrema förberedelser oroade många inom organisationen.
Bunkerförslaget dök upp mitt i ökade spänningar på OpenAI kring företagets inriktning. Sutskever och andra oroade sig för att organisationen prioriterade kommersiell expansion framför säkerhetsprotokoll—en oro som till slut ledde till det misslyckade försöket att avsätta VD:n Sam Altman i november 2023. Efter att Altman återinsatts lämnade Sutskever OpenAI i maj 2024 för att grunda Safe Superintelligence (SSI) tillsammans med Daniel Gross och Daniel Levy.
SSI, som har tagit in 3 miljarder dollar och nått en värdering på 32 miljarder dollar i april 2025, representerar Sutskevers fortsatta engagemang för AI-säkerhet. Till skillnad från OpenAIs bredare strategi fokuserar SSI uteslutande på att utveckla säker superintelligens. Sutskever har sagt: "Vår första produkt kommer att vara den säkra superintelligensen, och vi kommer inte göra något annat innan dess."
Kontrasten mellan Sutskevers försiktiga tillvägagångssätt och Altmans mer optimistiska syn belyser den ideologiska klyftan inom AI-samhället. Medan Sutskever förberedde sig för potentiell katastrof, har Altman föreslagit att AGI kommer att anlända med "förvånansvärt liten samhällspåverkan." I takt med att kapplöpningen mot superintelligens accelererar fortsätter dessa konkurrerande visioner att forma hur mänskligheten närmar sig vad som kan bli dess mest avgörande teknologiska utveckling.