menu
close

Schmidt advierte que la carrera armamentística de la IA podría desencadenar ataques a centros de datos

El ex CEO de Google, Eric Schmidt, ha advertido que la creciente carrera armamentística en inteligencia artificial entre EE. UU. y China podría desembocar en un conflicto global por el control de centros de datos y recursos críticos. En una reciente charla TED, Schmidt planteó un escenario hipotético en el que las naciones podrían recurrir al sabotaje o incluso a ataques físicos contra la infraestructura de IA rival para evitar quedarse atrás en la carrera por la superinteligencia. Como alternativa a un peligroso enfoque tipo 'Proyecto Manhattan' para el desarrollo de la IA, Schmidt y sus colegas proponen un marco llamado Malfuncionamiento Mutuo Asegurado de la IA (MAIM) para disuadir la dominancia unilateral.
Schmidt advierte que la carrera armamentística de la IA podría desencadenar ataques a centros de datos

La carrera global por alcanzar sistemas de inteligencia artificial superinteligentes está generando tensiones geopolíticas que, según las alarmantes advertencias del ex CEO de Google, Eric Schmidt, podrían escalar de la competencia tecnológica al conflicto real.

En su charla TED de mayo de 2025, Schmidt expuso cómo la carrera armamentística en IA entre Estados Unidos y China se asemeja cada vez más al enfrentamiento nuclear de la Guerra Fría. Advirtió que si una nación comienza a tomar la delantera en el desarrollo de sistemas superinteligentes, el país rezagado podría recurrir a medidas cada vez más desesperadas —incluido el sabotaje o incluso el bombardeo de centros de datos— para evitar quedarse permanentemente atrás.

Schmidt subrayó que el enfoque de China de desarrollar IA de código abierto supone un riesgo estratégico para EE. UU., que actualmente prefiere modelos de IA cerrados y propietarios. “Como China comparte abiertamente sus avances en IA, EE. UU. se beneficia de ellos, pero corre el riesgo de quedarse atrás en una carrera global de código abierto”, explicó Schmidt. Esta dinámica podría intensificar la competencia, donde el primer país en lograr la superinteligencia obtendría una dominancia irreversible gracias a los efectos de red.

En lugar de seguir un peligroso enfoque tipo 'Proyecto Manhattan' para el desarrollo de la IA, Schmidt y los coautores Alexandr Wang y Dan Hendrycks propusieron en su artículo de marzo de 2025 un marco denominado Malfuncionamiento Mutuo Asegurado de la IA (MAIM). Este modelo de disuasión centrado en el ciberespacio, inspirado en los principios de la Guerra Fría, establecería que cualquier intento agresivo de lograr una dominancia unilateral en IA desencadenaría medidas preventivas por parte de los rivales.

“Lo que comienza como una carrera por una superarma y el control global corre el riesgo de provocar contramedidas hostiles y una escalada de tensiones, socavando así la propia estabilidad que la estrategia pretende asegurar”, escribieron Schmidt y sus colegas. Las apuestas son existenciales: los escenarios van desde el sabotaje cibernético dirigido a infraestructuras de IA hasta ataques preventivos que recuerdan la política de máximas tensiones de la Guerra Fría.

Mientras que algunos críticos, como la asesora de Seguridad Nacional Evelyn Green, sostienen que MAIM carece de mecanismos aplicables en comparación con los tratados de no proliferación nuclear, Schmidt mantiene que la disuasión, combinada con la transparencia y la cooperación internacional, ofrece el mejor camino para gestionar los riesgos sin precedentes de los sistemas de IA superinteligentes.

Source: Naturalnews.com

Latest News