Latem 2023 roku, podczas spotkania z badaczami OpenAI, ówczesny główny naukowiec Ilya Sutskever wygłosił zaskakujące oświadczenie: „Zdecydowanie zbudujemy bunkier, zanim wypuścimy AGI”. To ujawnienie, po raz pierwszy opisane w niedawno wydanej książce Karen Hao „Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI”, rzuca światło na apokaliptyczne obawy jednego z najbardziej wpływowych przedstawicieli świata sztucznej inteligencji.
Sutskever, współzałożyciel OpenAI i główny naukowiec tej organizacji do maja 2024 roku, uważał, że badacze będą potrzebować ochrony, gdy osiągną poziom sztucznej inteligencji ogólnej — systemów AI o zdolnościach poznawczych na poziomie człowieka. Według źródeł cytowanych w książce Hao, propozycja budowy bunkra miała podwójny cel: ochronę kluczowych naukowców przed geopolitycznym chaosem, który może nastąpić po wypuszczeniu AGI, oraz potencjalne stworzenie bazy do wpływania na rozwój systemów superinteligentnych.
„Jest grupa ludzi — Ilya jest jednym z nich — którzy wierzą, że stworzenie AGI doprowadzi do czegoś na kształt raptury”, powiedział Hao jeden z badaczy, mając na myśli nie metaforę, lecz dosłownie wydarzenie zmieniające świat. Sutskever miał zapewniać współpracowników, że wejście do bunkra będzie „opcjonalne”, jednak jego rzeczowe podejście do tak skrajnych przygotowań zaniepokoiło wielu członków organizacji.
Pomysł budowy bunkra pojawił się w czasie narastających napięć w OpenAI dotyczących kierunku rozwoju firmy. Sutskever i inni obawiali się, że organizacja przedkłada ekspansję komercyjną nad kwestie bezpieczeństwa — obawy te ostatecznie doprowadziły do nieudanego zamachu na stanowisko CEO Sama Altmana w listopadzie 2023 roku. Po powrocie Altmana na stanowisko, Sutskever odszedł z OpenAI w maju 2024 roku i założył Safe Superintelligence (SSI) wspólnie z Danielem Grossem i Danielem Levy.
SSI, które do kwietnia 2025 roku pozyskało 3 miliardy dolarów i osiągnęło wycenę 32 miliardów dolarów, stanowi kontynuację zaangażowania Sutskevera w kwestie bezpieczeństwa AI. W przeciwieństwie do zdywersyfikowanego podejścia OpenAI, SSI koncentruje się wyłącznie na rozwoju bezpiecznej superinteligencji. Sutskever deklaruje: „Naszym pierwszym produktem będzie bezpieczna superinteligencja i nie będziemy robić nic innego, dopóki tego nie osiągniemy”.
Kontrast pomiędzy ostrożnym podejściem Sutskevera a bardziej optymistyczną wizją Altmana uwidacznia ideologiczny podział w społeczności AI. Podczas gdy Sutskever przygotowywał się na potencjalną katastrofę, Altman sugerował, że AGI pojawi się „z zaskakująco niewielkim wpływem na społeczeństwo”. W miarę jak wyścig ku superinteligencji nabiera tempa, te konkurujące ze sobą wizje wciąż kształtują sposób, w jaki ludzkość podchodzi do być może najważniejszego rozwoju technologicznego w historii.