La carrera global por alcanzar sistemas de inteligencia artificial superinteligentes está generando tensiones geopolíticas que, según las alarmantes advertencias del ex CEO de Google, Eric Schmidt, podrían escalar de la competencia tecnológica al conflicto real.
En su charla TED de mayo de 2025, Schmidt expuso cómo la carrera armamentística en IA entre Estados Unidos y China se asemeja cada vez más al enfrentamiento nuclear de la Guerra Fría. Advirtió que si una nación comienza a tomar la delantera en el desarrollo de sistemas superinteligentes, el país rezagado podría recurrir a medidas cada vez más desesperadas —incluido el sabotaje o incluso el bombardeo de centros de datos— para evitar quedarse permanentemente atrás.
Schmidt subrayó que el enfoque de China de desarrollar IA de código abierto supone un riesgo estratégico para EE. UU., que actualmente prefiere modelos de IA cerrados y propietarios. “Como China comparte abiertamente sus avances en IA, EE. UU. se beneficia de ellos, pero corre el riesgo de quedarse atrás en una carrera global de código abierto”, explicó Schmidt. Esta dinámica podría intensificar la competencia, donde el primer país en lograr la superinteligencia obtendría una dominancia irreversible gracias a los efectos de red.
En lugar de seguir un peligroso enfoque tipo 'Proyecto Manhattan' para el desarrollo de la IA, Schmidt y los coautores Alexandr Wang y Dan Hendrycks propusieron en su artículo de marzo de 2025 un marco denominado Malfuncionamiento Mutuo Asegurado de la IA (MAIM). Este modelo de disuasión centrado en el ciberespacio, inspirado en los principios de la Guerra Fría, establecería que cualquier intento agresivo de lograr una dominancia unilateral en IA desencadenaría medidas preventivas por parte de los rivales.
“Lo que comienza como una carrera por una superarma y el control global corre el riesgo de provocar contramedidas hostiles y una escalada de tensiones, socavando así la propia estabilidad que la estrategia pretende asegurar”, escribieron Schmidt y sus colegas. Las apuestas son existenciales: los escenarios van desde el sabotaje cibernético dirigido a infraestructuras de IA hasta ataques preventivos que recuerdan la política de máximas tensiones de la Guerra Fría.
Mientras que algunos críticos, como la asesora de Seguridad Nacional Evelyn Green, sostienen que MAIM carece de mecanismos aplicables en comparación con los tratados de no proliferación nuclear, Schmidt mantiene que la disuasión, combinada con la transparencia y la cooperación internacional, ofrece el mejor camino para gestionar los riesgos sin precedentes de los sistemas de IA superinteligentes.