Летом 2023 года на встрече с исследователями OpenAI тогдашний главный научный сотрудник Илья Суцкевер сделал поразительное заявление: «Мы определённо построим бункер до того, как выпустим AGI». Об этом впервые сообщается в недавно вышедшей книге Карен Хао «Империя ИИ: Мечты и кошмары в OpenAI Сэма Олтмана», которая приоткрывает завесу над апокалиптическими опасениями одного из самых влиятельных деятелей в области искусственного интеллекта.
Суцкевер, который был сооснователем OpenAI и занимал пост главного научного сотрудника до мая 2024 года, считал, что исследователям потребуется защита, когда они достигнут создания искусственного общего интеллекта — систем ИИ с когнитивными способностями на уровне человека. По данным источников, приведённых в книге Хао, предложение Суцкевера о бункере имело двойную цель: защитить ключевых учёных от геополитического хаоса, который может последовать за выпуском AGI, и, возможно, использовать бункер как плацдарм для влияния на эволюцию сверхразумных систем.
«Есть группа людей — Илья среди них — которые считают, что создание AGI приведёт к некоему „восхищению“», — рассказал Хао один из исследователей, имея в виду не метафору, а буквальное мировое событие. По сообщениям, Суцкевер уверял коллег, что вход в бункер будет «по желанию», однако его будничный подход к столь радикальным мерам встревожил многих сотрудников организации.
Идея бункера появилась на фоне нарастающего напряжения в OpenAI относительно курса компании. Суцкевер и другие опасались, что организация ставит коммерческое развитие выше протоколов безопасности — эти опасения в итоге привели к неудачной попытке сместить генерального директора Сэма Олтмана в ноябре 2023 года. После возвращения Олтмана на пост Суцкевер покинул OpenAI в мае 2024 года и основал компанию Safe Superintelligence (SSI) вместе с Даниэлем Гроссом и Даниэлем Леви.
SSI, привлёкшая $3 млрд инвестиций и достигшая оценки в $32 млрд к апрелю 2025 года, отражает неизменную приверженность Суцкевера вопросам безопасности ИИ. В отличие от диверсифицированного подхода OpenAI, SSI сосредоточена исключительно на разработке безопасного сверхразума. Суцкевер заявил: «Нашим первым продуктом будет безопасный сверхразум, и до этого мы не будем заниматься ничем другим».
Контраст между осторожным подходом Суцкевера и более оптимистичным взглядом Олтмана подчёркивает идеологический разлом внутри сообщества ИИ. Пока Суцкевер готовился к возможной катастрофе, Олтман предполагал, что появление AGI приведёт к «удивительно малому влиянию на общество». По мере ускорения гонки за сверхразумом эти противоположные взгляды продолжают формировать то, как человечество подходит к, возможно, самому судьбоносному технологическому развитию.