Anthropic представила спеціалізовану колекцію моделей штучного інтелекту під назвою Claude Gov, призначену виключно для застосування у сфері національної безпеки США. Ці моделі вже використовуються агентствами найвищого рівня в розвідці та обороні США, а доступ до них суворо обмежений лише для персоналу, який працює в умовах секретності.
Моделі Claude Gov були розроблені на основі прямого зворотного зв’язку від державних клієнтів, щоб відповідати реальним операційним вимогам. На відміну від стандартних моделей Claude, доступних для споживачів і бізнесу, ці спеціалізовані версії спроєктовані для кращої роботи з чутливими матеріалами, і, як зазначає Anthropic, вони «менше відмовляють у взаємодії із секретною інформацією».
За словами Тіягу Рамасамі, керівника напряму Public Sector в Anthropic: «Унікальність моделей Claude Gov у тому, що вони створені спеціально для наших клієнтів у сфері національної безпеки. Завдяки розумінню їхніх операційних потреб і врахуванню реального зворотного зв’язку ми створили набір безпечних, надійних і потужних моделей, які можуть ефективно працювати в унікальних умовах і вимогах секретних середовищ».
Моделі пропонують розширені можливості, спеціально адаптовані для державних операцій, зокрема покращене розуміння розвідувальних і оборонних документів, вищу компетентність у мовах, критично важливих для національної безпеки, а також кращу інтерпретацію складних даних з кібербезпеки. Клієнти у сфері національної безпеки можуть використовувати ці ШІ-системи для стратегічного планування, оперативної підтримки, аналізу розвідданих і оцінки загроз.
Вихід Anthropic на оборонний ринок відображає ширшу тенденцію серед провідних ШІ-компаній. OpenAI активно шукає тісніших зв’язків із Міністерством оборони США, Meta надала свої моделі Llama оборонним партнерам, а Google розробляє версії свого ШІ Gemini для роботи в секретних середовищах. Така конкурентна динаміка підкреслює зростаючу роль штучного інтелекту в застосуваннях для національної безпеки та гонку серед технологічних гігантів за закріплення на цьому прибутковому ринку.
Попри орієнтацію цих моделей на сферу національної безпеки, Anthropic підкреслює, що Claude Gov пройшов таке ж суворе тестування на безпеку, як і інші ШІ-системи компанії, що відображає прагнення Anthropic до відповідального розвитку штучного інтелекту навіть у сфері чутливих державних операцій.