Глобальная гонка за создание сверхинтеллектуальных систем искусственного интеллекта порождает геополитическую напряжённость, которая может перерасти из технологического соперничества в реальный конфликт. Об этом тревожно предупреждает бывший генеральный директор Google Эрик Шмидт.
В своём выступлении на TED Talk в мае 2025 года Шмидт описал, как гонка вооружений в сфере ИИ между США и Китаем всё больше напоминает ядерное противостояние времён холодной войны. Он предостерёг, что если одна из стран начнёт вырываться вперёд в разработке сверхинтеллектуальных систем, отстающая сторона может прибегнуть к всё более отчаянным мерам — вплоть до саботажа или даже бомбардировки дата-центров — чтобы не быть навсегда вытесненной.
Шмидт отметил, что открытый подход Китая к разработке ИИ представляет стратегический риск для США, которые в настоящее время делают ставку на закрытые, проприетарные модели ИИ. «Поскольку Китай открыто делится своими достижениями в ИИ, США получают от этого выгоду, но рискуют отстать в глобальной гонке открытого кода», — пояснил Шмидт. Такая динамика может усилить конкуренцию, при которой страна, первой достигшая сверхинтеллекта, получает необратимое преимущество за счёт сетевых эффектов.
Вместо опасного «манхэттенского проекта» в развитии ИИ Шмидт и соавторы Александр Ванг и Дэн Хендрикс предложили в своей статье в марте 2025 года концепцию Mutual Assured AI Malfunction (MAIM) — «Взаимно гарантированная неисправность ИИ». Эта кибер-ориентированная модель сдерживания, вдохновлённая принципами холодной войны, предполагает, что любая агрессивная попытка одностороннего доминирования в сфере ИИ вызовет превентивные меры со стороны соперников.
«То, что начинается как стремление к созданию супероружия и глобальному контролю, рискует спровоцировать враждебные ответные меры и эскалацию напряжённости, тем самым подрывая ту самую стабильность, которую эта стратегия якобы должна обеспечить», — пишут Шмидт и его коллеги. Ставки — экзистенциальные: сценарии варьируются от киберсаботажа инфраструктуры ИИ до превентивных ударов, напоминающих балансирование на грани войны времён холодной войны.
Хотя некоторые критики, включая советника по национальной безопасности Эвелин Грин, утверждают, что у MAIM нет действенных механизмов исполнения в отличие от договоров о нераспространении ядерного оружия, Шмидт настаивает: сдерживание, в сочетании с прозрачностью и международным сотрудничеством, — лучший путь для управления беспрецедентными рисками сверхинтеллектуальных систем ИИ.