menu
close

Колишній науковець OpenAI планував бункер для пост-АГІ світу

Колишній головний науковець OpenAI Ілля Сутскевер запропонував побудувати бункер Судного дня для захисту дослідників від потенційних небезпек після створення штучного загального інтелекту (AGI). Це стало відомо завдяки новій книзі Карен Хао «Імперія ШІ», яка підкреслює глибокі занепокоєння Сутскевера щодо екзистенційних ризиків AGI. Саме ці страхи зрештою призвели до його відходу з OpenAI та заснування компанії Safe Superintelligence Inc.
Колишній науковець OpenAI планував бункер для пост-АГІ світу

Влітку 2023 року під час зустрічі з дослідниками OpenAI тодішній головний науковець Ілля Сутскевер зробив приголомшливу заяву: «Ми обов’язково побудуємо бункер перед тим, як випустимо AGI». Про це вперше повідомляється у нещодавно опублікованій книзі Карен Хао «Імперія ШІ: Мрії та кошмари в OpenAI Сема Олтмана», яка відкриває завісу над апокаліптичними побоюваннями одного з найвпливовіших діячів у сфері штучного інтелекту.

Сутскевер, який був співзасновником OpenAI і обіймав посаду головного науковця до травня 2024 року, вважав, що дослідникам знадобиться захист, коли вони досягнуть створення штучного загального інтелекту — систем ШІ з когнітивними можливостями на рівні людини. За даними джерел, на які посилається Хао у своїй книзі, пропозиція Сутскевера щодо бункера мала подвійне призначення: захистити ключових вчених від геополітичного хаосу, який може настати після появи AGI, а також потенційно слугувати плацдармом для впливу на те, як еволюціонуватимуть надінтелектуальні системи.

«Є група людей — Ілля серед них — які вірять, що створення AGI призведе до своєрідного вознесіння», — розповів Хао один із дослідників, маючи на увазі не метафору, а буквальну подію, що змінить світ. За повідомленнями, Сутскевер запевняв колег, що вхід до бункера буде «добровільним», але його спокійне ставлення до таких радикальних заходів викликало занепокоєння у багатьох співробітників компанії.

Ідея бункера виникла на тлі зростаючої напруги в OpenAI щодо подальшого курсу компанії. Сутскевер та інші побоювалися, що організація віддає перевагу комерційному зростанню замість дотримання протоколів безпеки — ці занепокоєння зрештою призвели до невдалої спроби усунути генерального директора Сема Олтмана у листопаді 2023 року. Після повернення Олтмана на посаду Сутскевер залишив OpenAI у травні 2024 року та заснував компанію Safe Superintelligence (SSI) разом із Даніелем Гроссом і Даніелем Леві.

SSI, яка залучила $3 мільярди інвестицій і досягла оцінки в $32 мільярди станом на квітень 2025 року, є втіленням прагнення Сутскевера до безпеки ШІ. На відміну від OpenAI, яка дотримується диверсифікованого підходу, SSI зосереджена виключно на розробці безпечного надінтелекту. Як підкреслює Сутскевер: «Нашим першим продуктом стане безпечний надінтелект, і ми не робитимемо нічого іншого, доки цього не досягнемо».

Контраст між обережним підходом Сутскевера та більш оптимістичним баченням Олтмана підкреслює ідеологічний розкол у спільноті ШІ. Поки Сутскевер готувався до потенційної катастрофи, Олтман заявляв, що AGI з’явиться із «дивовижно незначним впливом на суспільство». У міру того, як гонка за надінтелектом набирає обертів, ці протилежні погляди продовжують формувати підхід людства до, можливо, найважливішого технологічного прориву в його історії.

Source: Naturalnews.com

Latest News