menu
close

Il Pentagono finanzia l’IA per trasformare la strategia diplomatica degli Stati Uniti

Il Futures Lab del Center for Strategic and International Studies sta sfruttando fondi del Pentagono per esplorare come l’intelligenza artificiale possa rivoluzionare le pratiche diplomatiche. I ricercatori stanno addestrando modelli come ChatGPT e DeepSeek su trattati di pace e comunicazioni diplomatiche per supportare negoziati internazionali ad alto rischio. Sebbene questi strumenti mostrino potenzialità nella risoluzione dei conflitti, gli esperti avvertono che potrebbero fallire di fronte a sfide geopolitiche senza precedenti.
Il Pentagono finanzia l’IA per trasformare la strategia diplomatica degli Stati Uniti

Il governo degli Stati Uniti si sta affidando sempre più all’intelligenza artificiale per ridefinire il proprio approccio alla diplomazia globale e alla risoluzione dei conflitti, con importanti implicazioni per la strategia di sicurezza nazionale.

Al Center for Strategic and International Studies (CSIS) di Washington D.C., i ricercatori del Futures Lab stanno sperimentando applicazioni dell’IA nella pratica diplomatica grazie ai finanziamenti dell’Ufficio Capo per il Digitale e l’Intelligenza Artificiale del Pentagono. Il laboratorio sta testando grandi modelli linguistici come ChatGPT e DeepSeek per affrontare questioni complesse di guerra e pace, andando oltre i tradizionali ruoli dell’IA nella redazione di discorsi e nelle attività amministrative.

Una delle iniziative di punta del laboratorio, "Strategic Headwinds", dimostra il potenziale dell’IA nelle negoziazioni di pace. Il programma è stato sviluppato addestrando modelli di IA su centinaia di trattati di pace storici insieme ad articoli di attualità che illustrano le posizioni negoziali nel conflitto in Ucraina. Il sistema individua possibili aree di accordo che potrebbero portare a un cessate il fuoco, offrendo ai diplomatici spunti basati sui dati che altrimenti potrebbero rimanere nascosti.

"Potresti arrivare al punto in cui le IA iniziano loro stesse la negoziazione... e il negoziatore umano dice: 'Bene, ora definiamo i dettagli finali'", suggerisce Andrew Moore, adjunct senior fellow presso il Center for a New American Security, che immagina strumenti di IA in grado di simulare leader stranieri per aiutare i diplomatici a testare le risposte alle crisi.

Tuttavia, queste tecnologie presentano limiti significativi. Andrew Reddie, fondatore del Berkeley Risk and Security Lab, mette in guardia contro l’asimmetria informativa: "Gli avversari degli Stati Uniti hanno un vantaggio notevole perché noi pubblichiamo tutto... e loro no". Questa disparità di trasparenza potrebbe essere sfruttata da nazioni con ambienti informativi meno aperti.

Gli esperti avvertono inoltre che i sistemi di IA faticano ad affrontare situazioni inedite. "Se pensi davvero che la tua sfida geopolitica sia un cigno nero, gli strumenti di IA non ti saranno utili", osserva Reddie, sottolineando la dipendenza dell’IA dai modelli storici.

I dipartimenti della Difesa e di Stato stanno conducendo propri esperimenti sull’IA, segnalando un più ampio cambiamento istituzionale verso la diplomazia computazionale. Benjamin Jensen del CSIS riconosce che questi sistemi necessitano di un addestramento specifico per comprendere il linguaggio diplomatico, citando casi in cui i modelli di IA hanno frainteso termini come "deterrenza nell’Artico" con risultati involontariamente comici.

Man mano che queste tecnologie maturano, i decisori politici si trovano di fronte a una scelta cruciale sul ruolo dell’IA nella politica estera americana: diventerà un assistente diplomatico prezioso in grado di fornire analisi sfumate, o solo un altro strumento digitale dal valore pratico limitato? La risposta probabilmente plasmerà la strategia diplomatica degli Stati Uniti per i decenni a venire.

Source: Npr

Latest News