menu
close

Le Pentagone finance l’IA pour redéfinir la stratégie diplomatique des États-Unis

Le Bureau du chef du numérique et de l’intelligence artificielle du Pentagone finance des recherches au Futures Lab du CSIS afin d’explorer le potentiel de l’IA pour transformer la diplomatie. Les chercheurs testent des modèles de langage comme ChatGPT et DeepSeek pour soutenir les décisions diplomatiques cruciales, de la rédaction d’accords de paix à la surveillance des cessez-le-feu. Cette initiative marque un changement important dans la façon dont l’intelligence artificielle pourrait influencer les relations internationales, alors que les États-Unis et le Royaume-Uni développent des systèmes d’IA pour des applications diplomatiques.
Le Pentagone finance l’IA pour redéfinir la stratégie diplomatique des États-Unis

Le Pentagone mise sur l’intelligence artificielle pour révolutionner la diplomatie américaine, marquant ainsi un changement majeur dans l’approche des États-Unis en matière de relations internationales.

Au Center for Strategic and International Studies (CSIS) à Washington, D.C., les chercheurs du Futures Lab explorent comment l’IA peut transformer les pratiques diplomatiques. Grâce au financement du Bureau du chef du numérique et de l’intelligence artificielle (CDAO) du Pentagone, le laboratoire expérimente des systèmes d’IA comme ChatGPT et DeepSeek afin d’explorer leurs applications dans les domaines de la guerre et de la paix.

Les recherches portent sur le potentiel de l’IA pour rédiger des accords de paix, prévenir l’escalade nucléaire et surveiller le respect des cessez-le-feu. Un projet notable, « Strategic Headwinds », vise à orienter les négociations pour mettre fin à la guerre en Ukraine. Pour développer cet outil, les chercheurs ont entraîné un modèle d’IA sur des centaines de traités de paix et d’articles de presse en source ouverte détaillant la position de négociation de chaque camp. Le modèle identifie ensuite des zones d’entente potentielles pouvant mener à un cessez-le-feu.

Les premiers tests ont révélé des tendances intéressantes dans la façon dont différents modèles d’IA abordent la résolution de conflits. Des modèles comme GPT-4o d’OpenAI et Claude d’Anthropic ont démontré des tendances « nettement pacifistes », optant pour la force dans moins de 17 % des scénarios. D’autres modèles, dont Llama de Meta, Qwen2 d’Alibaba Cloud et Gemini de Google, se sont montrés beaucoup plus agressifs, privilégiant l’escalade jusqu’à 45 % du temps.

La recherche a également révélé que les résultats produits par l’IA variaient selon le pays concerné. Pour des diplomates des États-Unis, du Royaume-Uni ou de la France, ces systèmes avaient tendance à recommander des politiques plus agressives, tout en suggérant la désescalade pour la Russie ou la Chine. Comme le souligne Yasir Atalan, chercheur au CSIS : « On ne peut pas simplement utiliser des modèles prêts à l’emploi. Il faut évaluer leurs tendances et les aligner avec l’approche institutionnelle. »

Au-delà de l’initiative du CSIS, les départements de la Défense et d’État développent également leurs propres systèmes d’IA pour des applications diplomatiques. Les États-Unis ne sont pas seuls dans cette démarche : le Royaume-Uni travaille aussi sur des « technologies novatrices » pour transformer les pratiques diplomatiques, y compris l’utilisation de l’IA pour planifier des scénarios de négociation.

Bien que des défis subsistent — notamment la difficulté de l’IA à saisir le langage diplomatique nuancé et la réflexion stratégique à long terme — l’investissement du Pentagone témoigne d’une reconnaissance croissante du rôle central que jouera l’intelligence artificielle dans la façon dont les États-Unis aborderont les affaires mondiales.

Source: Wusf

Latest News