menu
close

Бывший учёный OpenAI планировал бункер для мира после появления ИИ-AGI

Бывший главный научный сотрудник OpenAI Илья Суцкевер предложил построить бункер Судного дня для защиты исследователей от возможных угроз после создания искусственного общего интеллекта (AGI). Это стало известно из новой книги Карен Хао «Империя ИИ», где подробно описаны глубокие опасения Суцкевера по поводу экзистенциальных рисков AGI, которые в итоге привели к его уходу из OpenAI и основанию компании Safe Superintelligence Inc.
Бывший учёный OpenAI планировал бункер для мира после появления ИИ-AGI

Летом 2023 года на встрече с исследователями OpenAI тогдашний главный научный сотрудник Илья Суцкевер сделал поразительное заявление: «Мы определённо построим бункер до того, как выпустим AGI». Об этом впервые сообщается в недавно вышедшей книге Карен Хао «Империя ИИ: Мечты и кошмары в OpenAI Сэма Олтмана», которая приоткрывает завесу над апокалиптическими опасениями одного из самых влиятельных деятелей в области искусственного интеллекта.

Суцкевер, который был сооснователем OpenAI и занимал пост главного научного сотрудника до мая 2024 года, считал, что исследователям потребуется защита, когда они достигнут создания искусственного общего интеллекта — систем ИИ с когнитивными способностями на уровне человека. По данным источников, приведённых в книге Хао, предложение Суцкевера о бункере имело двойную цель: защитить ключевых учёных от геополитического хаоса, который может последовать за выпуском AGI, и, возможно, использовать бункер как плацдарм для влияния на эволюцию сверхразумных систем.

«Есть группа людей — Илья среди них — которые считают, что создание AGI приведёт к некоему „восхищению“», — рассказал Хао один из исследователей, имея в виду не метафору, а буквальное мировое событие. По сообщениям, Суцкевер уверял коллег, что вход в бункер будет «по желанию», однако его будничный подход к столь радикальным мерам встревожил многих сотрудников организации.

Идея бункера появилась на фоне нарастающего напряжения в OpenAI относительно курса компании. Суцкевер и другие опасались, что организация ставит коммерческое развитие выше протоколов безопасности — эти опасения в итоге привели к неудачной попытке сместить генерального директора Сэма Олтмана в ноябре 2023 года. После возвращения Олтмана на пост Суцкевер покинул OpenAI в мае 2024 года и основал компанию Safe Superintelligence (SSI) вместе с Даниэлем Гроссом и Даниэлем Леви.

SSI, привлёкшая $3 млрд инвестиций и достигшая оценки в $32 млрд к апрелю 2025 года, отражает неизменную приверженность Суцкевера вопросам безопасности ИИ. В отличие от диверсифицированного подхода OpenAI, SSI сосредоточена исключительно на разработке безопасного сверхразума. Суцкевер заявил: «Нашим первым продуктом будет безопасный сверхразум, и до этого мы не будем заниматься ничем другим».

Контраст между осторожным подходом Суцкевера и более оптимистичным взглядом Олтмана подчёркивает идеологический разлом внутри сообщества ИИ. Пока Суцкевер готовился к возможной катастрофе, Олтман предполагал, что появление AGI приведёт к «удивительно малому влиянию на общество». По мере ускорения гонки за сверхразумом эти противоположные взгляды продолжают формировать то, как человечество подходит к, возможно, самому судьбоносному технологическому развитию.

Source: Naturalnews.com

Latest News