Le gouvernement américain se tourne de plus en plus vers l’intelligence artificielle pour redéfinir son approche de la diplomatie mondiale et de la résolution des conflits, ce qui a des répercussions majeures sur la stratégie de sécurité nationale.
Au Center for Strategic and International Studies (CSIS) à Washington D.C., les chercheurs du Futures Lab sont à l’avant-garde de l’application de l’IA à la pratique diplomatique, grâce à un financement du Bureau du chef du numérique et de l’intelligence artificielle du Pentagone. Le laboratoire expérimente des modèles de langage de grande taille comme ChatGPT et DeepSeek pour s’attaquer à des enjeux complexes de guerre et de paix, allant au-delà des rôles traditionnels de l’IA en diplomatie, tels que la rédaction de discours et les tâches administratives.
L’une des initiatives phares du laboratoire, « Strategic Headwinds », démontre le potentiel de l’IA dans les négociations de paix. Ce programme a été développé en entraînant des modèles d’IA sur des centaines de traités de paix historiques, ainsi que sur des articles d’actualité détaillant les positions de négociation dans le conflit en Ukraine. Le système identifie des zones potentielles d’entente pouvant mener à un cessez-le-feu, offrant aux diplomates des perspectives fondées sur les données qui pourraient autrement passer inaperçues.
« On pourrait éventuellement voir des IA entamer les négociations elles-mêmes… et le négociateur humain dire : “Parfait, maintenant on règle les derniers détails” », suggère Andrew Moore, chercheur principal adjoint au Center for a New American Security, qui imagine que les outils d’IA pourraient un jour simuler des dirigeants étrangers pour aider les diplomates à tester des réponses en situation de crise.
Cependant, ces technologies présentent d’importantes limites. Andrew Reddie, fondateur du Berkeley Risk and Security Lab, met en garde contre l’asymétrie de l’information : « Les adversaires des États-Unis ont un avantage significatif parce que nous publions tout… et eux non. » Cette disparité en matière de transparence pourrait être exploitée par des pays dont l’environnement informationnel est moins ouvert.
Les experts préviennent également que les systèmes d’IA ont de la difficulté avec les situations inédites. « Si vous pensez vraiment que votre défi géopolitique est un cygne noir, les outils d’IA ne vous seront d’aucune utilité », souligne Reddie, mettant en lumière la dépendance de l’IA aux schémas historiques.
Les départements de la Défense et d’État mènent leurs propres expérimentations en IA, signalant un virage institutionnel plus large vers la diplomatie computationnelle. Benjamin Jensen, du CSIS, reconnaît que ces systèmes doivent être entraînés de façon spécialisée pour comprendre le langage diplomatique, citant des cas où des modèles d’IA ont mal interprété des expressions comme « dissuasion dans l’Arctique » avec des résultats involontairement comiques.
À mesure que ces technologies évoluent, les décideurs devront trancher sur le rôle de l’IA dans la politique étrangère américaine : deviendra-t-elle un assistant diplomatique précieux offrant des analyses nuancées, ou simplement un outil numérique de plus, à l’utilité limitée? La réponse façonnera sans doute la stratégie diplomatique des États-Unis pour les décennies à venir.