Глобалната надпревара за постигане на суперинтелигентни системи с изкуствен интелект създава геополитическо напрежение, което може да ескалира от технологическо съперничество до реален конфликт, според тревожните предупреждения на бившия изпълнителен директор на Google, Ерик Шмидт.
В своята TED лекция през май 2025 г. Шмидт очерта как надпреварата във въоръжаването с ИИ между Съединените щати и Китай все повече наподобява ядреното противопоставяне от ерата на Студената война. Той предупреди, че ако една държава започне да изпреварва другата в разработването на суперинтелигентни системи, изоставащата страна може да прибегне до все по-отчаяни мерки – включително саботаж или дори бомбардировки на центрове за данни – за да не бъде трайно изместена.
Шмидт подчерта, че подходът на Китай към разработването на ИИ с отворен код представлява стратегически риск за САЩ, които в момента залагат на затворени, патентовани модели. „Тъй като Китай споделя открито своите постижения в ИИ, САЩ се възползват от тях, но рискуват да изостанат в глобалната надпревара с отворен код“, обясни Шмидт. Тази динамика може да засили конкуренцията, при която първата държава, достигнала суперинтелигентност, ще постигне необратимо надмощие чрез мрежови ефекти.
Вместо да се следва опасният подход „Манхатънски проект“ за развитие на ИИ, Шмидт и съавторите Александър Уанг и Дан Хендрикс предлагат в своя статия от март 2025 г. рамка, наречена „Взаимно гарантирана неизправност на ИИ“ (MAIM). Този модел за възпиране, фокусиран върху киберпространството и вдъхновен от принципите на Студената война, предвижда, че всеки агресивен опит за едностранно доминиране в сферата на ИИ ще предизвика превантивни мерки от страна на конкурентите.
„Това, което започва като стремеж към супероръжие и глобален контрол, рискува да провокира враждебни контрамерки и ескалация на напрежението, като по този начин подкопава самата стабилност, която стратегията уж цели да осигури“, пишат Шмидт и колегите му. Залогът е екзистенциален – сценариите варират от киберсаботаж срещу инфраструктурата на ИИ до превантивни удари, наподобяващи напрежението от Студената война.
Докато някои критици, включително съветникът по национална сигурност Евелин Грийн, твърдят, че MAIM няма изпълними механизми в сравнение с договорите за неразпространение на ядрено оръжие, Шмидт поддържа мнението, че възпирането, съчетано с прозрачност и международно сътрудничество, е най-добрият път напред за управление на безпрецедентните рискове, свързани със суперинтелигентните системи с изкуствен интелект.