menu
close

Пентагон финансирует ИИ для переосмысления дипломатической стратегии США

Главное управление цифровых и искусственного интеллекта Пентагона финансирует исследования в Futures Lab Центра стратегических и международных исследований (CSIS) по изучению потенциала ИИ в трансформации дипломатии. Исследователи тестируют крупные языковые модели, такие как ChatGPT и DeepSeek, чтобы помочь в принятии важных дипломатических решений — от разработки мирных соглашений до мониторинга соблюдения режима прекращения огня. Эта инициатива знаменует собой значительный сдвиг в том, как искусственный интеллект может повлиять на международные отношения: как США, так и Великобритания разрабатывают ИИ-системы для дипломатических задач.
Пентагон финансирует ИИ для переосмысления дипломатической стратегии США

Пентагон делает ставку на искусственный интеллект, чтобы революционизировать американскую дипломатию, что знаменует собой значительный сдвиг в подходе США к международным отношениям.

В Центре стратегических и международных исследований (CSIS) в Вашингтоне исследователи лаборатории Futures Lab изучают, как ИИ может трансформировать дипломатическую практику. При поддержке Главного управления цифровых и искусственного интеллекта Пентагона (CDAO) лаборатория экспериментирует с ИИ-системами, такими как ChatGPT и DeepSeek, чтобы исследовать их применение в вопросах войны и мира.

Исследование сосредоточено на тестировании потенциала ИИ для разработки мирных соглашений, предотвращения ядерной эскалации и мониторинга соблюдения режима прекращения огня. Одним из примечательных проектов стал "Strategic Headwinds", цель которого — помочь формировать переговоры по завершению войны в Украине. Для создания этого инструмента исследователи обучили ИИ-модель на сотнях мирных договоров и открытых новостных статьях, описывающих позиции сторон на переговорах. Модель затем выявляет потенциальные области согласия, которые могут привести к прекращению огня.

Первое тестирование выявило интересные закономерности в том, как разные ИИ-модели подходят к разрешению конфликтов. Модели, такие как GPT-4o от OpenAI и Claude от Anthropic, проявили "отчетливо пацифистские" тенденции, прибегая к силе менее чем в 17% сценариев. Однако другие модели — включая Llama от Meta, Qwen2 от Alibaba Cloud и Gemini от Google — были гораздо более агрессивны, выбирая эскалацию до 45% случаев.

Исследование также показало, что выводы ИИ различались в зависимости от рассматриваемой страны. Для дипломатов из США, Великобритании или Франции эти системы чаще рекомендовали более агрессивную политику, в то время как для России или Китая советовали деэскалацию. Как отмечает научный сотрудник CSIS Ясир Аталан: "Нельзя просто использовать готовые модели. Необходимо анализировать их поведенческие паттерны и согласовывать их с институциональным подходом".

Помимо инициативы CSIS, как Министерство обороны, так и Госдепартамент США разрабатывают собственные ИИ-системы для дипломатических задач. США не единственные, кто идет по этому пути — Великобритания также работает над "новыми технологиями" для реформирования дипломатической практики, включая использование ИИ для планирования переговорных сценариев.

Хотя остаются вызовы — в том числе трудности ИИ с нюансами дипломатического языка и долгосрочным стратегическим мышлением — инвестиции Пентагона свидетельствуют о растущем признании того, что искусственный интеллект будет играть все более центральную роль в формировании подхода Америки к глобальным вопросам.

Source: Wusf

Latest News