Влітку 2023 року під час зустрічі з дослідниками OpenAI тодішній головний науковець Ілля Сутскевер зробив приголомшливу заяву: «Ми обов’язково побудуємо бункер перед тим, як випустимо AGI». Про це вперше повідомляється у нещодавно опублікованій книзі Карен Хао «Імперія ШІ: Мрії та кошмари в OpenAI Сема Олтмана», яка відкриває завісу над апокаліптичними побоюваннями одного з найвпливовіших діячів у сфері штучного інтелекту.
Сутскевер, який був співзасновником OpenAI і обіймав посаду головного науковця до травня 2024 року, вважав, що дослідникам знадобиться захист, коли вони досягнуть створення штучного загального інтелекту — систем ШІ з когнітивними можливостями на рівні людини. За даними джерел, на які посилається Хао у своїй книзі, пропозиція Сутскевера щодо бункера мала подвійне призначення: захистити ключових вчених від геополітичного хаосу, який може настати після появи AGI, а також потенційно слугувати плацдармом для впливу на те, як еволюціонуватимуть надінтелектуальні системи.
«Є група людей — Ілля серед них — які вірять, що створення AGI призведе до своєрідного вознесіння», — розповів Хао один із дослідників, маючи на увазі не метафору, а буквальну подію, що змінить світ. За повідомленнями, Сутскевер запевняв колег, що вхід до бункера буде «добровільним», але його спокійне ставлення до таких радикальних заходів викликало занепокоєння у багатьох співробітників компанії.
Ідея бункера виникла на тлі зростаючої напруги в OpenAI щодо подальшого курсу компанії. Сутскевер та інші побоювалися, що організація віддає перевагу комерційному зростанню замість дотримання протоколів безпеки — ці занепокоєння зрештою призвели до невдалої спроби усунути генерального директора Сема Олтмана у листопаді 2023 року. Після повернення Олтмана на посаду Сутскевер залишив OpenAI у травні 2024 року та заснував компанію Safe Superintelligence (SSI) разом із Даніелем Гроссом і Даніелем Леві.
SSI, яка залучила $3 мільярди інвестицій і досягла оцінки в $32 мільярди станом на квітень 2025 року, є втіленням прагнення Сутскевера до безпеки ШІ. На відміну від OpenAI, яка дотримується диверсифікованого підходу, SSI зосереджена виключно на розробці безпечного надінтелекту. Як підкреслює Сутскевер: «Нашим першим продуктом стане безпечний надінтелект, і ми не робитимемо нічого іншого, доки цього не досягнемо».
Контраст між обережним підходом Сутскевера та більш оптимістичним баченням Олтмана підкреслює ідеологічний розкол у спільноті ШІ. Поки Сутскевер готувався до потенційної катастрофи, Олтман заявляв, що AGI з’явиться із «дивовижно незначним впливом на суспільство». У міру того, як гонка за надінтелектом набирає обертів, ці протилежні погляди продовжують формувати підхід людства до, можливо, найважливішого технологічного прориву в його історії.