menu
close

Le Pentagone finance l’IA pour transformer la stratégie diplomatique américaine

Le Futures Lab du Center for Strategic and International Studies exploite des fonds du Pentagone pour explorer comment l’IA peut révolutionner les pratiques diplomatiques. Les chercheurs entraînent des modèles comme ChatGPT et DeepSeek sur des traités de paix et des communications diplomatiques afin d’assister les négociations internationales à enjeux élevés. Si ces outils montrent un potentiel pour la résolution des conflits, des experts mettent en garde contre leurs limites face à des défis géopolitiques inédits.
Le Pentagone finance l’IA pour transformer la stratégie diplomatique américaine

Le gouvernement américain se tourne de plus en plus vers l’intelligence artificielle pour redéfinir son approche de la diplomatie mondiale et de la résolution des conflits, avec des conséquences majeures pour la stratégie de sécurité nationale.

Au Center for Strategic and International Studies (CSIS) à Washington D.C., les chercheurs du Futures Lab sont à la pointe des applications de l’IA dans la pratique diplomatique, grâce au financement du Chief Digital and Artificial Intelligence Office du Pentagone. Le laboratoire expérimente des modèles de langage de grande taille tels que ChatGPT et DeepSeek pour aborder des questions complexes de guerre et de paix, allant au-delà des usages traditionnels de l’IA en diplomatie, comme la rédaction de discours ou les tâches administratives.

L’une des initiatives phares du laboratoire, « Strategic Headwinds », illustre le potentiel de l’IA dans les négociations de paix. Ce programme a été développé en entraînant des modèles d’IA sur des centaines de traités de paix historiques, ainsi que sur des articles d’actualité détaillant les positions de négociation dans le conflit ukrainien. Le système identifie des zones d’accord potentielles susceptibles de mener à un cessez-le-feu, offrant ainsi aux diplomates des analyses fondées sur les données, souvent invisibles autrement.

« On pourrait finir par voir des IA entamer elles-mêmes les négociations… et le négociateur humain dire : “Très bien, maintenant réglons les derniers détails” », suggère Andrew Moore, chercheur associé principal au Center for a New American Security, qui imagine que les outils d’IA pourraient un jour simuler des dirigeants étrangers pour aider les diplomates à tester des réponses en situation de crise.

Cependant, ces technologies présentent d’importantes limites. Andrew Reddie, fondateur du Berkeley Risk and Security Lab, met en garde contre l’asymétrie de l’information : « Les adversaires des États-Unis ont un avantage considérable car nous publions tout… et eux non. » Cette disparité de transparence pourrait être exploitée par des pays disposant d’environnements informationnels moins ouverts.

Les experts soulignent également que les systèmes d’IA peinent à gérer les situations inédites. « Si vous pensez vraiment que votre défi géopolitique est un cygne noir, les outils d’IA ne vous seront d’aucune utilité », note Reddie, insistant sur la dépendance de l’IA aux schémas historiques.

Les départements de la Défense et d’État mènent leurs propres expérimentations en matière d’IA, signe d’un virage institutionnel plus large vers la diplomatie computationnelle. Benjamin Jensen, du CSIS, reconnaît que ces systèmes nécessitent une formation spécialisée pour comprendre le langage diplomatique, citant des cas où des modèles d’IA ont mal interprété des termes comme « dissuasion dans l’Arctique » avec des résultats involontairement comiques.

À mesure que ces technologies mûrissent, les décideurs politiques devront faire un choix crucial concernant le rôle de l’IA dans la politique étrangère américaine : deviendra-t-elle un assistant diplomatique précieux, capable de fournir des analyses nuancées, ou simplement un outil numérique de plus à l’utilité limitée ? La réponse façonnera probablement la stratégie diplomatique des États-Unis pour les décennies à venir.

Source: Npr

Latest News