V létě 2023 během schůzky s výzkumníky OpenAI tehdejší hlavní vědec Ilya Sutskever učinil šokující prohlášení: „Než vypustíme AGI, rozhodně postavíme bunkr.“ Toto odhalení, které poprvé zaznělo v nedávno vydané knize Karen Hao „Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI“, nabízí pohled do apokalyptických obav jedné z nejvlivnějších osobností světa umělé inteligence.
Sutskever, který spoluzaložil OpenAI a působil jako hlavní vědec až do května 2024, věřil, že výzkumníci budou potřebovat ochranu, jakmile dosáhnou obecné umělé inteligence—systémů s kognitivními schopnostmi na úrovni člověka. Podle zdrojů citovaných v Hao knize měl Sutskeverův návrh na bunkr dvojí účel: chránit klíčové vědce před geopolitickým chaosem, který by mohl následovat po vypuštění AGI, a případně sloužit jako základna pro ovlivnění vývoje superinteligentních systémů.
„Existuje skupina lidí—Ilya je jedním z nich—kteří věří, že vytvoření AGI přinese jakési vytržení,“ řekl Hao jeden z výzkumníků, přičemž neměl na mysli metaforu, ale doslova událost měnící svět. Sutskever údajně kolegy ujišťoval, že vstup do bunkru bude „dobrovolný“, ale jeho věcný přístup k takto extrémním přípravám mnohé v organizaci znepokojil.
Návrh na bunkr se objevil v době narůstajícího napětí uvnitř OpenAI ohledně směřování společnosti. Sutskever a další se obávali, že organizace dává přednost komerční expanzi před bezpečnostními protokoly—obavy, které nakonec vedly k neúspěšnému pokusu o odvolání generálního ředitele Sama Altmana v listopadu 2023. Po Altmanově návratu do funkce Sutskever v květnu 2024 opustil OpenAI a spolu s Danielem Grossem a Danielem Levym založil společnost Safe Superintelligence (SSI).
SSI, která získala tři miliardy dolarů a v dubnu 2025 dosáhla hodnoty 32 miliard dolarů, představuje Sutskeverovo pokračující úsilí o bezpečnost AI. Na rozdíl od diverzifikovaného přístupu OpenAI se SSI zaměřuje výhradně na vývoj bezpečné superinteligence; Sutskever prohlásil: „Naším prvním produktem bude bezpečná superinteligence a do té doby nebudeme dělat nic jiného.“
Kontrast mezi Sutskeverovým opatrným přístupem a Altmanovým optimističtějším pohledem podtrhuje ideologický rozkol uvnitř AI komunity. Zatímco Sutskever se připravoval na možnou katastrofu, Altman naznačoval, že AGI přijde s „překvapivě malým dopadem na společnost“. Jak závod o superinteligenci nabírá na obrátkách, tyto soupeřící vize nadále formují, jak se lidstvo staví k možná nejzásadnějšímu technologickému vývoji své historie.