De Amerikaanse overheid wendt zich in toenemende mate tot kunstmatige intelligentie om haar benadering van wereldwijde diplomatie en conflictoplossing te hervormen, met grote gevolgen voor de nationale veiligheidsstrategie.
Aan het Center for Strategic and International Studies (CSIS) in Washington D.C. pionieren onderzoekers van het Futures Lab met AI-toepassingen binnen de diplomatieke praktijk, gefinancierd door het Chief Digital and Artificial Intelligence Office van het Pentagon. Het lab experimenteert met grote taalmodellen zoals ChatGPT en DeepSeek om complexe vraagstukken rond oorlog en vrede aan te pakken, en gaat daarmee verder dan de traditionele inzet van AI voor het schrijven van toespraken en administratieve taken.
Een van de belangrijkste initiatieven van het lab, "Strategic Headwinds", laat het potentieel van AI in vredesonderhandelingen zien. Het programma is ontwikkeld door AI-modellen te trainen op honderden historische vredesverdragen, samen met actuele nieuwsartikelen over onderhandelingsposities in het Oekraïneconflict. Het systeem identificeert potentiële raakvlakken die kunnen leiden tot een staakt-het-vuren, en biedt diplomaten datagedreven inzichten die anders mogelijk verborgen zouden blijven.
"Je zou uiteindelijk AI's zelf de onderhandelingen kunnen laten starten... en dat de menselijke onderhandelaar zegt: 'Prima, nu werken we de laatste details uit'," suggereert Andrew Moore, adjunct senior fellow bij het Center for a New American Security. Hij voorziet dat AI-tools op termijn buitenlandse leiders kunnen simuleren om diplomaten te helpen bij het testen van crisisreacties.
Toch kennen deze technologieën aanzienlijke beperkingen. Andrew Reddie, oprichter van het Berkeley Risk and Security Lab, waarschuwt voor informatie-asymmetrie: "Tegenstanders van de Verenigde Staten hebben een aanzienlijk voordeel omdat wij alles publiceren... en zij niet." Dit verschil in transparantie kan mogelijk worden uitgebuit door landen met minder open informatieomgevingen.
Experts waarschuwen ook dat AI-systemen moeite hebben met volledig nieuwe situaties. "Als je echt denkt dat jouw geopolitieke uitdaging een zwarte zwaan is, dan zullen AI-tools je niet helpen," merkt Reddie op, waarmee hij de afhankelijkheid van AI van historische patronen benadrukt.
Het ministerie van Defensie en het ministerie van Buitenlandse Zaken voeren hun eigen AI-experimenten uit, wat wijst op een bredere institutionele verschuiving richting computationele diplomatie. Benjamin Jensen van CSIS erkent dat deze systemen gespecialiseerde training nodig hebben om diplomatieke taal te begrijpen, en noemt voorbeelden waarbij AI-modellen termen als "afschrikking in het Noordpoolgebied" op onbedoeld komische wijze verkeerd interpreteerden.
Naarmate deze technologieën volwassen worden, staan beleidsmakers voor een cruciale keuze over de rol van AI in het Amerikaanse buitenlands beleid: wordt het een onmisbare diplomatieke assistent die genuanceerde inzichten biedt, of slechts een ander digitaal hulpmiddel met beperkte praktische waarde? Het antwoord zal waarschijnlijk de Amerikaanse diplomatieke strategie voor decennia bepalen.