menu
close

Шмидт предупреждава: Надпреварата във въоръжаването с ИИ може да предизвика атаки срещу центрове за данни

Бившият изпълнителен директор на Google, Ерик Шмидт, предупреди, че ескалиращата надпревара във въоръжаването с изкуствен интелект между САЩ и Китай може да доведе до глобален конфликт заради центрове за данни и критични ресурси. В скорошна TED лекция Шмидт представи хипотетичен сценарий, при който държавите могат да прибегнат до саботаж или дори физически атаки срещу инфраструктурата на конкурентите си, за да не бъдат изпреварени в надпреварата за суперинтелигентност. Като алтернатива на опасния подход „Манхатънски проект“ за развитие на ИИ, Шмидт и колегите му предлагат рамка, наречена „Взаимно гарантирана неизправност на ИИ“ (MAIM), която да възпира едностранното доминиране.
Шмидт предупреждава: Надпреварата във въоръжаването с ИИ може да предизвика атаки срещу центрове за данни

Глобалната надпревара за постигане на суперинтелигентни системи с изкуствен интелект създава геополитическо напрежение, което може да ескалира от технологическо съперничество до реален конфликт, според тревожните предупреждения на бившия изпълнителен директор на Google, Ерик Шмидт.

В своята TED лекция през май 2025 г. Шмидт очерта как надпреварата във въоръжаването с ИИ между Съединените щати и Китай все повече наподобява ядреното противопоставяне от ерата на Студената война. Той предупреди, че ако една държава започне да изпреварва другата в разработването на суперинтелигентни системи, изоставащата страна може да прибегне до все по-отчаяни мерки – включително саботаж или дори бомбардировки на центрове за данни – за да не бъде трайно изместена.

Шмидт подчерта, че подходът на Китай към разработването на ИИ с отворен код представлява стратегически риск за САЩ, които в момента залагат на затворени, патентовани модели. „Тъй като Китай споделя открито своите постижения в ИИ, САЩ се възползват от тях, но рискуват да изостанат в глобалната надпревара с отворен код“, обясни Шмидт. Тази динамика може да засили конкуренцията, при която първата държава, достигнала суперинтелигентност, ще постигне необратимо надмощие чрез мрежови ефекти.

Вместо да се следва опасният подход „Манхатънски проект“ за развитие на ИИ, Шмидт и съавторите Александър Уанг и Дан Хендрикс предлагат в своя статия от март 2025 г. рамка, наречена „Взаимно гарантирана неизправност на ИИ“ (MAIM). Този модел за възпиране, фокусиран върху киберпространството и вдъхновен от принципите на Студената война, предвижда, че всеки агресивен опит за едностранно доминиране в сферата на ИИ ще предизвика превантивни мерки от страна на конкурентите.

„Това, което започва като стремеж към супероръжие и глобален контрол, рискува да провокира враждебни контрамерки и ескалация на напрежението, като по този начин подкопава самата стабилност, която стратегията уж цели да осигури“, пишат Шмидт и колегите му. Залогът е екзистенциален – сценариите варират от киберсаботаж срещу инфраструктурата на ИИ до превантивни удари, наподобяващи напрежението от Студената война.

Докато някои критици, включително съветникът по национална сигурност Евелин Грийн, твърдят, че MAIM няма изпълними механизми в сравнение с договорите за неразпространение на ядрено оръжие, Шмидт поддържа мнението, че възпирането, съчетано с прозрачност и международно сътрудничество, е най-добрият път напред за управление на безпрецедентните рискове, свързани със суперинтелигентните системи с изкуствен интелект.

Source: Naturalnews.com

Latest News