Pada musim panas 2023, dalam sebuah pertemuan dengan para peneliti OpenAI, kepala ilmuwan saat itu, Ilya Sutskever, membuat pernyataan mengejutkan: "Kita pasti akan membangun bunker sebelum merilis AGI." Pengungkapan ini, pertama kali dilaporkan dalam buku terbaru Karen Hao "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI," memberikan gambaran tentang kekhawatiran apokaliptik yang dimiliki salah satu tokoh paling berpengaruh di bidang AI.
Sutskever, yang ikut mendirikan OpenAI dan menjabat sebagai kepala ilmuwan hingga Mei 2024, meyakini bahwa para peneliti akan membutuhkan perlindungan setelah mereka berhasil menciptakan artificial general intelligence—sistem AI dengan kemampuan kognitif setara manusia. Menurut sumber yang dikutip dalam buku Hao, usulan bunker dari Sutskever memiliki dua tujuan: melindungi ilmuwan kunci dari kekacauan geopolitik yang mungkin terjadi setelah AGI dirilis, serta berpotensi menjadi pangkalan untuk mempengaruhi bagaimana sistem superintelligent akan berkembang.
"Ada sekelompok orang—Ilya salah satunya—yang percaya bahwa membangun AGI akan membawa semacam kiamat," ujar seorang peneliti kepada Hao, merujuk bukan secara metaforis melainkan pada peristiwa yang benar-benar mengubah dunia. Sutskever dilaporkan meyakinkan rekan-rekannya bahwa masuk ke bunker tersebut bersifat "opsional," namun sikapnya yang lugas terhadap persiapan ekstrem ini membuat banyak orang di organisasi merasa khawatir.
Usulan bunker ini muncul di tengah meningkatnya ketegangan di OpenAI terkait arah perusahaan. Sutskever dan beberapa pihak lain khawatir organisasi tersebut lebih mengutamakan ekspansi komersial daripada protokol keselamatan—kekhawatiran yang akhirnya memicu upaya gagal untuk menggulingkan CEO Sam Altman pada November 2023. Setelah Altman kembali menjabat, Sutskever meninggalkan OpenAI pada Mei 2024 untuk mendirikan Safe Superintelligence (SSI) bersama Daniel Gross dan Daniel Levy.
SSI, yang telah mengumpulkan dana sebesar $3 miliar dan mencapai valuasi $32 miliar per April 2025, merepresentasikan komitmen berkelanjutan Sutskever terhadap keselamatan AI. Berbeda dengan pendekatan OpenAI yang terdiversifikasi, SSI fokus secara eksklusif pada pengembangan superintelligence yang aman, dengan Sutskever menyatakan, "Produk pertama kami adalah superintelligence yang aman, dan kami tidak akan melakukan hal lain sebelum itu tercapai."
Kontras antara pendekatan hati-hati Sutskever dan pandangan Altman yang lebih optimis menyoroti perbedaan ideologis di komunitas AI. Sementara Sutskever bersiap menghadapi potensi bencana, Altman justru menyatakan AGI akan hadir dengan "dampak sosial yang mengejutkan kecil." Seiring perlombaan menuju superintelligence semakin cepat, visi yang saling bertentangan ini terus membentuk cara manusia menghadapi salah satu perkembangan teknologi paling menentukan dalam sejarah.