V lete 2023 počas stretnutia s výskumníkmi OpenAI vtedajší hlavný vedec Ilya Sutskever urobil šokujúce vyhlásenie: „Určite postavíme bunker, ešte predtým, než uvoľníme AGI.“ Toto odhalenie, ktoré prvýkrát zverejnila Karen Hao vo svojej nedávno vydanej knihe „Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI“, poskytuje pohľad do apokalyptických obáv jedného z najvplyvnejších predstaviteľov umelej inteligencie.
Sutskever, ktorý spoluzakladal OpenAI a pôsobil ako hlavný vedec až do mája 2024, veril, že výskumníci budú potrebovať ochranu po dosiahnutí všeobecnej umelej inteligencie – teda systémov s kognitívnymi schopnosťami na úrovni človeka. Podľa zdrojov citovaných v knihe Karen Hao mal Sutskeverov návrh na bunker dvojitý účel: ochrániť kľúčových vedcov pred geopolitickým chaosom, ktorý by mohol nasledovať po uvoľnení AGI, a potenciálne slúžiť ako základňa na ovplyvňovanie vývoja superinteligentných systémov.
„Existuje skupina ľudí – Ilya je jedným z nich – ktorí veria, že vybudovanie AGI prinesie niečo ako vytrženie,“ povedal jeden z výskumníkov Hao, pričom nemal na mysli metaforu, ale doslova svetovo zmenový moment. Sutskever údajne kolegom uisťoval, že vstup do bunkra bude „dobrovoľný“, no jeho vecný prístup k takýmto extrémnym prípravám mnohých v organizácii znepokojil.
Návrh na bunker sa objavil uprostred narastajúcich napätí v OpenAI ohľadom smerovania spoločnosti. Sutskever a ďalší sa obávali, že organizácia uprednostňuje komerčnú expanziu pred bezpečnostnými protokolmi – obavy, ktoré napokon viedli k neúspešnému pokusu o odvolanie generálneho riaditeľa Sama Altmana v novembri 2023. Po Altmanovom návrate do funkcie Sutskever v máji 2024 opustil OpenAI a spolu s Danielom Grossom a Danielom Levym založil spoločnosť Safe Superintelligence (SSI).
SSI, ktorá do apríla 2025 získala investície vo výške 3 miliardy dolárov a dosiahla hodnotu 32 miliárd dolárov, predstavuje pokračovanie Sutskeverovho záväzku k bezpečnosti umelej inteligencie. Na rozdiel od diverzifikovaného prístupu OpenAI sa SSI zameriava výlučne na vývoj bezpečnej superinteligencie, pričom Sutskever uviedol: „Náš prvý produkt bude bezpečná superinteligencia a dovtedy nebudeme robiť nič iné.“
Kontrast medzi Sutskeverovým opatrným prístupom a Altmanovým optimistickejším pohľadom zvýrazňuje ideologický rozkol v komunite umelej inteligencie. Kým Sutskever sa pripravoval na možnú katastrofu, Altman naznačil, že AGI príde s „prekvapivo malým spoločenským dopadom“. Ako sa preteky za superinteligenciou zrýchľujú, tieto protichodné vízie naďalej formujú spôsob, akým ľudstvo pristupuje k tomu, čo môže byť jeho najzásadnejším technologickým vývojom.