Anthropic представила специализированную линейку моделей искусственного интеллекта под названием Claude Gov, предназначенную исключительно для применения в сфере национальной безопасности США. Эти модели уже используются агентствами на высшем уровне американской разведки и обороны, а доступ к ним строго ограничен сотрудниками, работающими в условиях секретности.
Модели Claude Gov были разработаны на основе прямых отзывов государственных заказчиков для решения реальных оперативных задач. В отличие от стандартных моделей Claude, доступных для частных лиц и бизнеса, эти специализированные версии оптимизированы для работы с конфиденциальными материалами; в Anthropic отмечают, что они «реже отказывают при взаимодействии с секретной информацией».
По словам Тиягу Рамасами, руководителя направления Public Sector в Anthropic: «Главная особенность моделей Claude Gov в том, что они созданы специально для наших клиентов из сферы национальной безопасности. Понимая их задачи и учитывая обратную связь, мы разработали безопасные, надежные и функциональные модели, способные эффективно работать в уникальных условиях секретных сред».
Модели предлагают расширенные возможности, специально адаптированные для нужд государственных структур: улучшенное понимание разведывательных и оборонных документов, повышенная компетентность в языках, критически важных для национальной безопасности, а также более точная интерпретация сложных данных в области кибербезопасности. Заказчики из сферы национальной безопасности могут использовать эти ИИ-системы для стратегического планирования, оперативной поддержки, анализа разведданных и оценки угроз.
Выход Anthropic на рынок оборонных технологий отражает более широкую тенденцию среди ведущих ИИ-компаний. OpenAI активно ищет пути укрепления сотрудничества с Министерством обороны США, Meta предоставляет свои модели Llama партнерам из оборонного сектора, а Google разрабатывает версии Gemini AI для работы в секретных средах. Эта конкурентная борьба подчеркивает растущее значение искусственного интеллекта в национальной безопасности и стремление технологических гигантов занять позиции на этом прибыльном рынке.
Несмотря на адаптацию моделей для нужд национальной безопасности, Anthropic подчеркивает, что Claude Gov прошел такие же строгие проверки безопасности, как и другие ИИ-системы компании, что отражает приверженность ответственной разработке искусственного интеллекта даже при работе с чувствительными государственными задачами.