menu
close

El Pentágono financia IA para transformar la estrategia diplomática de EE. UU.

La Oficina Principal de Digitalización e Inteligencia Artificial del Pentágono está financiando investigaciones en el Futures Lab del CSIS para explorar el potencial de la IA en la transformación de la diplomacia. Los investigadores están probando modelos de lenguaje como ChatGPT y DeepSeek para asistir en decisiones diplomáticas de alto riesgo, desde la elaboración de acuerdos de paz hasta la supervisión de ceses al fuego. Esta iniciativa representa un cambio significativo en la manera en que la inteligencia artificial podría influir en las relaciones internacionales, con Estados Unidos y el Reino Unido desarrollando sistemas de IA para aplicaciones diplomáticas.
El Pentágono financia IA para transformar la estrategia diplomática de EE. UU.

El Pentágono apuesta por la inteligencia artificial para revolucionar la diplomacia estadounidense, marcando un cambio significativo en la forma en que EE. UU. aborda las relaciones internacionales.

En el Centro de Estudios Estratégicos e Internacionales (CSIS) en Washington, DC, los investigadores del Futures Lab exploran cómo la IA puede transformar las prácticas diplomáticas. Con financiamiento de la Oficina Principal de Digitalización e Inteligencia Artificial (CDAO) del Pentágono, el laboratorio está experimentando con sistemas de IA como ChatGPT y DeepSeek para analizar sus aplicaciones en temas de guerra y paz.

La investigación se centra en probar el potencial de la IA para redactar acuerdos de paz, prevenir la escalada nuclear y monitorear el cumplimiento de ceses al fuego. Uno de los proyectos más destacados, "Strategic Headwinds", busca ayudar a dar forma a las negociaciones para poner fin a la guerra en Ucrania. Para construir esta herramienta, los investigadores entrenaron un modelo de IA con cientos de tratados de paz y artículos de noticias de código abierto que detallan la postura negociadora de cada parte. El modelo luego identifica posibles áreas de acuerdo que podrían conducir a un cese al fuego.

Las pruebas iniciales han revelado patrones interesantes en la manera en que diferentes modelos de IA abordan la resolución de conflictos. Modelos como GPT-4o de OpenAI y Claude de Anthropic demostraron tendencias "claramente pacifistas", optando por el uso de la fuerza en menos del 17% de los escenarios. Sin embargo, otros modelos —incluidos Llama de Meta, Qwen2 de Alibaba Cloud y Gemini de Google— fueron mucho más agresivos, favoreciendo la escalada hasta en un 45% de los casos.

La investigación también encontró que las respuestas de la IA variaban según el país en cuestión. Para diplomáticos de EE. UU., Reino Unido o Francia, estos sistemas tendían a recomendar políticas más agresivas, mientras que sugerían la desescalada para Rusia o China. Como señala Yasir Atalan, investigador del CSIS: "No se pueden usar modelos genéricos sin más. Es necesario evaluar sus patrones y alinearlos con el enfoque institucional".

Más allá de la iniciativa del CSIS, tanto el Departamento de Defensa como el de Estado están desarrollando sus propios sistemas de IA para aplicaciones diplomáticas. EE. UU. no es el único con este enfoque: el Reino Unido también está trabajando en "tecnologías novedosas" para renovar las prácticas diplomáticas, incluyendo el uso de IA para planificar escenarios de negociación.

Aunque persisten desafíos —como la dificultad de la IA para comprender el lenguaje diplomático matizado y el pensamiento estratégico a largo plazo— la inversión del Pentágono es una señal clara de que se reconoce cada vez más que la inteligencia artificial jugará un papel central en la manera en que Estados Unidos aborda los asuntos globales.

Source: Wusf

Latest News