menu
close

Pentagon finansuje sztuczną inteligencję, by przekształcić amerykańską strategię dyplomatyczną

Biuro Głównego Specjalisty ds. Cyfryzacji i Sztucznej Inteligencji Pentagonu finansuje badania w Futures Lab przy CSIS, mające na celu zbadanie potencjału AI w transformacji dyplomacji. Naukowcy testują duże modele językowe, takie jak ChatGPT i DeepSeek, by wspierać podejmowanie decyzji w kluczowych sprawach dyplomatycznych – od tworzenia porozumień pokojowych po monitorowanie zawieszeń broni. Inicjatywa ta stanowi istotny zwrot w sposobie, w jaki sztuczna inteligencja może wpływać na stosunki międzynarodowe; zarówno USA, jak i Wielka Brytania rozwijają systemy AI do zastosowań dyplomatycznych.
Pentagon finansuje sztuczną inteligencję, by przekształcić amerykańską strategię dyplomatyczną

Pentagon stawia na sztuczną inteligencję, by zrewolucjonizować amerykańską dyplomację, co oznacza istotną zmianę w podejściu USA do stosunków międzynarodowych.

W Center for Strategic and International Studies (CSIS) w Waszyngtonie naukowcy z Futures Lab badają, jak AI może odmienić praktyki dyplomatyczne. Dzięki finansowaniu z Biura Głównego Specjalisty ds. Cyfryzacji i Sztucznej Inteligencji Pentagonu (CDAO), laboratorium eksperymentuje z systemami AI, takimi jak ChatGPT i DeepSeek, analizując ich zastosowania w sprawach wojny i pokoju.

Badania koncentrują się na testowaniu potencjału AI w zakresie tworzenia porozumień pokojowych, zapobiegania eskalacji nuklearnej oraz monitorowania przestrzegania zawieszeń broni. Jednym z kluczowych projektów jest "Strategic Headwinds", którego celem jest wsparcie negocjacji mających zakończyć wojnę w Ukrainie. Aby stworzyć to narzędzie, naukowcy wytrenowali model AI na setkach traktatów pokojowych oraz artykułach prasowych z otwartych źródeł, opisujących stanowiska negocjacyjne obu stron. Model identyfikuje następnie potencjalne obszary porozumienia, które mogą prowadzić do zawieszenia broni.

Wstępne testy ujawniły interesujące wzorce w sposobie, w jaki różne modele AI podchodzą do rozwiązywania konfliktów. Modele takie jak GPT-4o od OpenAI oraz Claude od Anthropic wykazały wyraźnie pacyfistyczne tendencje, wybierając użycie siły w mniej niż 17% scenariuszy. Z kolei inne modele – w tym Llama od Meta, Qwen2 od Alibaba Cloud oraz Gemini od Google – były znacznie bardziej agresywne, opowiadając się za eskalacją nawet w 45% przypadków.

Badania wykazały także, że wyniki AI różniły się w zależności od analizowanego kraju. W przypadku dyplomatów z USA, Wielkiej Brytanii lub Francji systemy te częściej rekomendowały bardziej agresywną politykę, podczas gdy dla Rosji czy Chin sugerowały deeskalację. Jak zauważa Yasir Atalan, ekspert CSIS: "Nie można po prostu używać gotowych modeli. Trzeba ocenić ich wzorce i dostosować je do własnego podejścia instytucjonalnego."

Poza inicjatywą CSIS, zarówno Departament Obrony, jak i Departament Stanu rozwijają własne systemy AI do zastosowań dyplomatycznych. USA nie są w tym podejściu osamotnione – Wielka Brytania również pracuje nad "nowatorskimi technologiami" mającymi zrewolucjonizować praktyki dyplomatyczne, w tym wykorzystaniem AI do planowania scenariuszy negocjacyjnych.

Choć wyzwań nie brakuje – AI wciąż ma trudności z niuansami języka dyplomatycznego i długoterminowym myśleniem strategicznym – inwestycje Pentagonu wskazują na rosnącą świadomość, że sztuczna inteligencja będzie odgrywać coraz większą rolę w kształtowaniu amerykańskiego podejścia do spraw globalnych.

Source: Wusf

Latest News