menu
close

Шмидт предупреждает: гонка вооружений в сфере ИИ может привести к атакам на дата-центры

Бывший генеральный директор Google Эрик Шмидт предупредил, что обостряющаяся гонка вооружений в области искусственного интеллекта между США и Китаем может привести к глобальному конфликту из-за дата-центров и критически важных ресурсов. В недавнем выступлении на TED Talk Шмидт представил гипотетический сценарий, в котором государства могут прибегнуть к саботажу или даже физическим атакам на инфраструктуру ИИ соперников, чтобы не отстать в гонке за сверхинтеллектом. В качестве альтернативы опасному «манхэттенскому проекту» в развитии ИИ Шмидт и его коллеги предлагают концепцию Mutual Assured AI Malfunction (MAIM) — «Взаимно гарантированная неисправность ИИ» — для сдерживания одностороннего доминирования.
Шмидт предупреждает: гонка вооружений в сфере ИИ может привести к атакам на дата-центры

Глобальная гонка за создание сверхинтеллектуальных систем искусственного интеллекта порождает геополитическую напряжённость, которая может перерасти из технологического соперничества в реальный конфликт. Об этом тревожно предупреждает бывший генеральный директор Google Эрик Шмидт.

В своём выступлении на TED Talk в мае 2025 года Шмидт описал, как гонка вооружений в сфере ИИ между США и Китаем всё больше напоминает ядерное противостояние времён холодной войны. Он предостерёг, что если одна из стран начнёт вырываться вперёд в разработке сверхинтеллектуальных систем, отстающая сторона может прибегнуть к всё более отчаянным мерам — вплоть до саботажа или даже бомбардировки дата-центров — чтобы не быть навсегда вытесненной.

Шмидт отметил, что открытый подход Китая к разработке ИИ представляет стратегический риск для США, которые в настоящее время делают ставку на закрытые, проприетарные модели ИИ. «Поскольку Китай открыто делится своими достижениями в ИИ, США получают от этого выгоду, но рискуют отстать в глобальной гонке открытого кода», — пояснил Шмидт. Такая динамика может усилить конкуренцию, при которой страна, первой достигшая сверхинтеллекта, получает необратимое преимущество за счёт сетевых эффектов.

Вместо опасного «манхэттенского проекта» в развитии ИИ Шмидт и соавторы Александр Ванг и Дэн Хендрикс предложили в своей статье в марте 2025 года концепцию Mutual Assured AI Malfunction (MAIM) — «Взаимно гарантированная неисправность ИИ». Эта кибер-ориентированная модель сдерживания, вдохновлённая принципами холодной войны, предполагает, что любая агрессивная попытка одностороннего доминирования в сфере ИИ вызовет превентивные меры со стороны соперников.

«То, что начинается как стремление к созданию супероружия и глобальному контролю, рискует спровоцировать враждебные ответные меры и эскалацию напряжённости, тем самым подрывая ту самую стабильность, которую эта стратегия якобы должна обеспечить», — пишут Шмидт и его коллеги. Ставки — экзистенциальные: сценарии варьируются от киберсаботажа инфраструктуры ИИ до превентивных ударов, напоминающих балансирование на грани войны времён холодной войны.

Хотя некоторые критики, включая советника по национальной безопасности Эвелин Грин, утверждают, что у MAIM нет действенных механизмов исполнения в отличие от договоров о нераспространении ядерного оружия, Шмидт настаивает: сдерживание, в сочетании с прозрачностью и международным сотрудничеством, — лучший путь для управления беспрецедентными рисками сверхинтеллектуальных систем ИИ.

Source: Naturalnews.com

Latest News