In de zomer van 2023 deed toenmalig hoofdwetenschapper Ilya Sutskever tijdens een bijeenkomst met OpenAI-onderzoekers een opvallende uitspraak: "We gaan zeker een bunker bouwen voordat we AGI vrijgeven." Deze onthulling, voor het eerst gerapporteerd in Karen Hao’s recent verschenen boek "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI", biedt een inkijkje in de apocalyptische zorgen van een van de meest invloedrijke figuren binnen de AI-wereld.
Sutskever, medeoprichter van OpenAI en hoofdwetenschapper tot mei 2024, was ervan overtuigd dat onderzoekers bescherming nodig zouden hebben zodra zij artificiële algemene intelligentie zouden bereiken—AI-systemen met cognitieve vermogens op menselijk niveau. Volgens bronnen in Hao’s boek had Sutskevers bunkerplan een dubbele functie: het beschermen van sleutelwetenschappers tegen de geopolitieke chaos die op de vrijgave van AGI zou kunnen volgen, en mogelijk dienen als uitvalsbasis om invloed uit te oefenen op de evolutie van superintelligente systemen.
"Er is een groep mensen—Ilya is daar één van—die geloven dat het bouwen van AGI een soort 'rapture' zal veroorzaken," vertelde een onderzoeker aan Hao, verwijzend naar een letterlijk wereldveranderend evenement. Sutskever zou collega's hebben verzekerd dat het betreden van de bunker "optioneel" was, maar zijn nuchtere houding tegenover zulke extreme voorbereidingen verontrustte velen binnen de organisatie.
Het bunkerplan ontstond te midden van toenemende spanningen binnen OpenAI over de koers van het bedrijf. Sutskever en anderen maakten zich zorgen dat de organisatie commerciële groei belangrijker vond dan veiligheidsprotocollen—zorgen die uiteindelijk leidden tot de mislukte poging om CEO Sam Altman in november 2023 af te zetten. Na Altmans terugkeer vertrok Sutskever in mei 2024 bij OpenAI om samen met Daniel Gross en Daniel Levy Safe Superintelligence (SSI) op te richten.
SSI, dat inmiddels $3 miljard heeft opgehaald en in april 2025 gewaardeerd werd op $32 miljard, weerspiegelt Sutskevers blijvende toewijding aan AI-veiligheid. In tegenstelling tot OpenAI’s brede aanpak richt SSI zich uitsluitend op het ontwikkelen van veilige superintelligentie. Sutskever verklaarde: "Ons eerste product zal de veilige superintelligentie zijn, en we doen niets anders tot het zover is."
Het contrast tussen Sutskevers voorzichtige benadering en Altmans optimistischere visie benadrukt de ideologische kloof binnen de AI-gemeenschap. Terwijl Sutskever zich voorbereidde op een mogelijke catastrofe, suggereerde Altman dat AGI met "verrassend weinig maatschappelijke impact" zal arriveren. Nu de race richting superintelligentie versnelt, blijven deze concurrerende visies bepalen hoe de mensheid omgaat met misschien wel haar meest ingrijpende technologische ontwikkeling.