Kesällä 2023 OpenAI:n tutkijoiden kokouksessa silloinen johtava tutkija Ilya Sutskever esitti yllättävän lausunnon: "Me rakennamme ehdottomasti bunkkerin ennen kuin julkaisemme AGI:n." Tämä paljastus, joka tuli julki Karen Haon hiljattain julkaistussa kirjassa "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI", tarjoaa vilauksen yhden tekoälyn vaikutusvaltaisimman henkilön apokalyptisiin huoliin.
Sutskever, joka oli yksi OpenAI:n perustajista ja toimi sen johtavana tutkijana toukokuuhun 2024 asti, uskoi, että tutkijat tarvitsisivat suojaa saavutettuaan tekoälyn yleisen älykkyyden – eli ihmistasoiset kognitiiviset kyvyt omaavat tekoälyjärjestelmät. Haon kirjan lähteiden mukaan Sutskeverin bunkkerisuunnitelmalla oli kaksi tarkoitusta: suojella avaintutkijoita mahdolliselta geopoliittiselta kaaokselta AGI:n julkaisun jälkeen sekä toimia mahdollisena tukikohtana, josta käsin voitaisiin vaikuttaa superälykkäiden järjestelmien kehitykseen.
"On olemassa ryhmä ihmisiä – Ilya heidän joukossaan – jotka uskovat, että AGI:n rakentaminen tuo mukanaan eräänlaisen 'ylöstempauksen'", eräs tutkija kertoi Haolle viitaten ei metaforisesti vaan kirjaimellisesti maailman mullistavaan tapahtumaan. Sutskeverin kerrotaan vakuuttaneen kollegoilleen, että bunkkeriin meneminen olisi "vapaaehtoista", mutta hänen suoraviivainen suhtautumisensa näin äärimmäisiin varotoimiin huolestutti monia organisaatiossa.
Bunkkerisuunnitelma nousi esiin OpenAI:n sisäisten jännitteiden kasvaessa yhtiön suunnasta. Sutskever ja muut olivat huolissaan siitä, että organisaatio priorisoi kaupallista laajentumista turvallisuusprotokollien kustannuksella – huolia, jotka lopulta johtivat epäonnistuneeseen yritykseen syrjäyttää toimitusjohtaja Sam Altman marraskuussa 2023. Altmanin paluun jälkeen Sutskever jätti OpenAI:n toukokuussa 2024 ja perusti Safe Superintelligence (SSI) -yhtiön yhdessä Daniel Grossin ja Daniel Levyn kanssa.
SSI, joka on kerännyt 3 miljardia dollaria rahoitusta ja saavuttanut 32 miljardin dollarin arvon huhtikuuhun 2025 mennessä, edustaa Sutskeverin jatkuvaa sitoutumista tekoälyn turvallisuuteen. Toisin kuin OpenAI:n monipuolinen lähestymistapa, SSI keskittyy yksinomaan turvallisen superälyn kehittämiseen. Sutskeverin sanoin: "Ensimmäinen tuotteemme tulee olemaan turvallinen superäly, emmekä tee mitään muuta ennen sitä."
Sutskeverin varovaisen lähestymistavan ja Altmanin optimistisemman näkemyksen välinen kontrasti korostaa tekoäly-yhteisön ideologista jakolinjaa. Siinä missä Sutskever valmistautui mahdolliseen katastrofiin, Altman on arvioinut, että AGI:n saapumisella on "yllättävän vähän yhteiskunnallista vaikutusta". Kilpailun kiihtyessä kohti superälyä nämä kilpailevat näkemykset muovaavat yhä sitä, miten ihmiskunta suhtautuu mahdollisesti merkittävimpään teknologiseen kehitykseensä.