I sommeren 2023 kom daværende chefforsker Ilya Sutskever med en opsigtsvækkende udmelding under et møde med OpenAI-forskere: "Vi kommer helt sikkert til at bygge en bunker, før vi frigiver AGI." Denne afsløring, som første gang blev rapporteret i Karen Haos nyligt udgivne bog "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI", giver et indblik i de apokalyptiske bekymringer hos en af AI-verdenens mest indflydelsesrige personer.
Sutskever, der var medstifter af OpenAI og fungerede som chefforsker indtil maj 2024, mente, at forskere ville få brug for beskyttelse, når de opnåede kunstig generel intelligens – AI-systemer med menneskelignende kognitive evner. Ifølge kilder i Haos bog havde Sutskevers bunkerforslag et dobbelt formål: at beskytte nøgleforskere mod den geopolitiske uro, der kunne følge efter AGI's frigivelse, og potentielt fungere som base for at påvirke, hvordan superintelligente systemer ville udvikle sig.
"Der er en gruppe mennesker – Ilya er en af dem – som tror, at opbygningen af AGI vil medføre en slags ragnarok," fortalte en forsker til Hao, og henviste ikke metaforisk, men til en bogstavelig verdensomvæltende begivenhed. Sutskever skulle angiveligt have forsikret sine kolleger om, at det ville være "frivilligt" at gå ind i bunkeren, men hans nøgterne tilgang til så ekstreme forberedelser vakte bekymring blandt mange i organisationen.
Bunkerforslaget opstod midt i stigende spændinger i OpenAI om virksomhedens retning. Sutskever og andre frygtede, at organisationen prioriterede kommerciel ekspansion over sikkerhedsprotokoller – bekymringer, der til sidst førte til det mislykkede forsøg på at afsætte CEO Sam Altman i november 2023. Efter Altmans genindsættelse forlod Sutskever OpenAI i maj 2024 for at stifte Safe Superintelligence (SSI) sammen med Daniel Gross og Daniel Levy.
SSI, som har rejst 3 milliarder dollars og opnået en værdiansættelse på 32 milliarder dollars pr. april 2025, repræsenterer Sutskevers fortsatte engagement i AI-sikkerhed. I modsætning til OpenAIs mere brede tilgang fokuserer SSI udelukkende på at udvikle sikker superintelligens, hvor Sutskever udtaler: "Vores første produkt bliver den sikre superintelligens, og vi laver ikke andet før da."
Kontrasten mellem Sutskevers forsigtige tilgang og Altmans mere optimistiske syn fremhæver den ideologiske kløft i AI-miljøet. Mens Sutskever forberedte sig på en potentiel katastrofe, har Altman antydet, at AGI vil få "overraskende lille samfundsmæssig betydning." I takt med at kapløbet mod superintelligens intensiveres, fortsætter disse konkurrerende visioner med at forme, hvordan menneskeheden forholder sig til, hvad der kan blive dens mest skelsættende teknologiske udvikling.