Rząd Stanów Zjednoczonych coraz częściej sięga po sztuczną inteligencję, by przekształcić swoje podejście do globalnej dyplomacji i rozwiązywania konfliktów, co ma istotne konsekwencje dla strategii bezpieczeństwa narodowego.
W Center for Strategic and International Studies (CSIS) w Waszyngtonie naukowcy z Futures Lab pioniersko wdrażają zastosowania AI w praktyce dyplomatycznej, korzystając z finansowania Biura Głównego ds. Cyfrowych i Sztucznej Inteligencji Pentagonu. Laboratorium eksperymentuje z dużymi modelami językowymi, takimi jak ChatGPT i DeepSeek, aby rozwiązywać złożone kwestie wojny i pokoju, wykraczając poza tradycyjne zastosowania AI w pisaniu przemówień i zadaniach administracyjnych.
Jedną z flagowych inicjatyw laboratorium jest program „Strategic Headwinds”, który pokazuje potencjał AI w negocjacjach pokojowych. Opracowano go, trenując modele AI na setkach historycznych traktatów pokojowych oraz bieżących artykułach prasowych opisujących stanowiska negocjacyjne w konflikcie na Ukrainie. System identyfikuje potencjalne obszary porozumienia, które mogłyby doprowadzić do zawieszenia broni, oferując dyplomatom wgląd oparty na danych, który w innym przypadku mógłby pozostać niezauważony.
„Być może w przyszłości to AI rozpoczną negocjacje... a ludzki negocjator powie: 'Świetnie, teraz dopracujmy ostatnie szczegóły'” — sugeruje Andrew Moore, starszy współpracownik w Center for a New American Security, który przewiduje, że narzędzia AI będą w stanie symulować zagranicznych przywódców, pomagając dyplomatom testować reakcje na kryzysy.
Jednak technologie te mają poważne ograniczenia. Andrew Reddie, założyciel Berkeley Risk and Security Lab, ostrzega przed asymetrią informacyjną: „Przeciwnicy Stanów Zjednoczonych mają ogromną przewagę, ponieważ my publikujemy wszystko... a oni nie”. Ta dysproporcja w przejrzystości może zostać wykorzystana przez państwa o mniej otwartych środowiskach informacyjnych.
Eksperci podkreślają również, że systemy AI mają trudności z radzeniem sobie w zupełnie nowych sytuacjach. „Jeśli naprawdę uważasz, że twoje wyzwanie geopolityczne to czarny łabędź, narzędzia AI nie będą dla ciebie przydatne” — zauważa Reddie, podkreślając zależność AI od wzorców historycznych.
Departamenty Obrony i Stanu prowadzą własne eksperymenty z AI, co sygnalizuje szerszy instytucjonalny zwrot w kierunku dyplomacji obliczeniowej. Benjamin Jensen z CSIS przyznaje, że systemy te wymagają specjalistycznego szkolenia, by rozumieć język dyplomatyczny, przytaczając przypadki, gdy modele AI błędnie interpretowały takie pojęcia jak „odstraszanie w Arktyce”, co prowadziło do niezamierzenie komicznych rezultatów.
W miarę dojrzewania tych technologii decydenci staną przed kluczowym wyborem dotyczącym roli AI w amerykańskiej polityce zagranicznej: czy stanie się ona nieocenionym asystentem dyplomatycznym, dostarczającym pogłębionych analiz, czy też pozostanie kolejnym narzędziem cyfrowym o ograniczonej wartości praktycznej? Odpowiedź na to pytanie prawdopodobnie ukształtuje amerykańską strategię dyplomatyczną na kolejne dekady.