menu
close

Пентагон фінансує дослідження ШІ для переосмислення дипломатичної стратегії США

Офіс головного цифрового та штучного інтелекту Пентагону фінансує дослідження в лабораторії Futures Lab Центру стратегічних і міжнародних досліджень (CSIS), щоб вивчити потенціал ШІ у трансформації дипломатії. Дослідники тестують великі мовні моделі, такі як ChatGPT і DeepSeek, для допомоги у прийнятті важливих дипломатичних рішень — від розробки мирних угод до моніторингу дотримання режиму припинення вогню. Ця ініціатива знаменує собою суттєву зміну підходу до впливу штучного інтелекту на міжнародні відносини: як США, так і Велика Британія розробляють системи ШІ для дипломатичних цілей.
Пентагон фінансує дослідження ШІ для переосмислення дипломатичної стратегії США

Пентагон робить ставку на штучний інтелект, щоб революціонізувати американську дипломатію, що знаменує собою значну зміну у підході США до міжнародних відносин.

У Центрі стратегічних і міжнародних досліджень (CSIS) у Вашингтоні дослідники лабораторії Futures Lab вивчають, як ШІ може трансформувати дипломатичні практики. За фінансування Офісу головного цифрового та штучного інтелекту Пентагону (CDAO) лабораторія експериментує з такими системами ШІ, як ChatGPT і DeepSeek, досліджуючи їх застосування у питаннях війни та миру.

Дослідження зосереджене на тестуванні потенціалу ШІ для розробки мирних угод, запобігання ядерній ескалації та моніторингу дотримання режиму припинення вогню. Одним із помітних проєктів є "Strategic Headwinds", який має на меті допомогти формувати переговори щодо завершення війни в Україні. Для створення цього інструменту дослідники навчили модель ШІ на сотнях мирних угод і відкритих новинних статей, що описують позиції сторін у переговорах. Модель потім визначає потенційні точки дотику, які можуть призвести до припинення вогню.

Початкові тести виявили цікаві закономірності у підходах різних моделей ШІ до вирішення конфліктів. Моделі, такі як GPT-4o від OpenAI та Claude від Anthropic, продемонстрували "яскраво виражені пацифістські" тенденції, обираючи застосування сили менш ніж у 17% сценаріїв. Водночас інші моделі — зокрема Llama від Meta, Qwen2 від Alibaba Cloud і Gemini від Google — були значно агресивнішими, віддаючи перевагу ескалації до 45% випадків.

Дослідження також показало, що результати роботи ШІ змінювалися залежно від країни. Для дипломатів із США, Великої Британії чи Франції ці системи схилялися до більш агресивної політики, тоді як для Росії чи Китаю рекомендували деескалацію. Як зазначає науковий співробітник CSIS Ясір Аталан, "Не можна просто використовувати готові моделі. Потрібно оцінювати їхні закономірності та узгоджувати з інституційним підходом".

Окрім ініціативи CSIS, як Міністерство оборони, так і Державний департамент США розробляють власні системи ШІ для дипломатичних цілей. США не єдині у цьому підході — Велика Британія також працює над "новітніми технологіями" для оновлення дипломатичних практик, зокрема із застосуванням ШІ для планування переговорних сценаріїв.

Попри наявні виклики — зокрема труднощі ШІ з нюансами дипломатичної мови та довгостроковим стратегічним мисленням — інвестиції Пентагону свідчать про зростаюче усвідомлення того, що штучний інтелект відіграватиме дедалі центральнішу роль у формуванні підходу Америки до глобальних справ.

Source: Wusf

Latest News