据前谷歌首席执行官埃里克·施密特警告,全球争夺超级智能AI系统的竞赛正在引发地缘政治紧张局势,这种紧张可能会从技术竞争升级为实际冲突。
在2025年5月的TED演讲中,施密特阐述了美中之间的AI军备竞赛如何日益类似于冷战时期的核对峙。他警告称,如果某一国家在开发超级智能系统方面开始领先,落后的国家可能会采取愈发极端的手段——包括破坏甚至轰炸数据中心——以防被永久超越。
施密特指出,中国的开源AI开发模式对目前偏好封闭专有AI模型的美国构成战略风险。“由于中国公开共享其AI进展,美国虽能从中受益,但也面临在全球开源竞赛中落后的风险。”施密特解释道。这种动态可能加剧竞争,使首个实现超级智能的国家通过网络效应获得不可逆转的主导地位。
施密特与合著者Alexandr Wang、Dan Hendrycks在2025年3月的论文中提出,与危险的“曼哈顿计划”式AI开发路径不同,他们建议采用名为“互保AI失控”(MAIM)的框架。这一以网络安全为核心的威慑模型借鉴了冷战时期的原则,旨在确立任何试图单边主导AI的激进行为都将引发对手的预防性措施。
“对超级武器和全球控制的追逐,最终可能引发敌对反制和紧张升级,从而破坏原本旨在维护的稳定。”施密特及其同事写道。风险关乎生存——相关情景包括针对AI基础设施的网络破坏,甚至类似冷战边缘政策的先发制人打击。
尽管包括国家安全顾问Evelyn Green在内的一些批评者认为,MAIM相比核不扩散条约缺乏可执行机制,施密特仍坚称,威慑、透明与国际合作相结合,是应对超级智能AI系统前所未有风险的最佳路径。