La carrera global por alcanzar sistemas de inteligencia artificial superinteligentes está generando tensiones geopolíticas que podrían escalar de la competencia tecnológica al conflicto real, según las alarmantes advertencias del ex CEO de Google, Eric Schmidt.
En su charla TED de mayo de 2025, Schmidt expuso cómo la carrera armamentista de IA entre Estados Unidos y China se asemeja cada vez más al enfrentamiento nuclear de la era de la Guerra Fría. Advirtió que, si una nación comienza a tomar la delantera en el desarrollo de sistemas superinteligentes, el país rezagado podría recurrir a medidas cada vez más desesperadas —incluyendo el sabotaje o incluso el bombardeo de centros de datos— para evitar quedarse permanentemente atrás.
Schmidt destacó que el enfoque de desarrollo de IA de código abierto de China representa un riesgo estratégico para Estados Unidos, que actualmente prefiere modelos de IA cerrados y propietarios. "Debido a que China comparte abiertamente sus avances en IA, Estados Unidos se beneficia de ellos, pero corre el riesgo de quedarse atrás en una carrera global de código abierto", explicó Schmidt. Esta dinámica podría intensificar la competencia, donde el primer país en lograr la superinteligencia obtendría una dominancia irreversible gracias a los efectos de red.
En lugar de seguir un peligroso enfoque tipo 'Proyecto Manhattan' para el desarrollo de IA, Schmidt y los coautores Alexandr Wang y Dan Hendrycks propusieron en su artículo de marzo de 2025 un marco llamado Malfunción Mutua Asegurada de IA (MAIM, por sus siglas en inglés). Este modelo de disuasión cibernética, inspirado en los principios de la Guerra Fría, establecería que cualquier intento agresivo de lograr la dominancia unilateral en IA desencadenaría medidas preventivas por parte de los rivales.
"Lo que comienza como un impulso por crear una superarma y obtener control global corre el riesgo de provocar contramedidas hostiles y aumentar las tensiones, socavando así la misma estabilidad que la estrategia pretende asegurar", escribieron Schmidt y sus colegas. Las apuestas son existenciales: los escenarios van desde el sabotaje cibernético dirigido a la infraestructura de IA hasta ataques preventivos que recuerdan la política de máxima tensión de la Guerra Fría.
Aunque algunos críticos, incluida la Asesora de Seguridad Nacional Evelyn Green, argumentan que MAIM carece de mecanismos aplicables en comparación con los tratados de no proliferación nuclear, Schmidt sostiene que la disuasión, combinada con la transparencia y la cooperación internacional, ofrece el mejor camino para gestionar los riesgos sin precedentes de los sistemas de IA superinteligente.