Anthropicは、米国の国家安全保障用途に特化したAIモデル群「Claude Gov」を発表した。これらのモデルは、米国の情報機関や防衛機関の最高レベルで既に運用されており、アクセスは機密環境で業務を行う職員に厳しく限定されている。
Claude Govモデルは、政府顧客からの直接的なフィードバックをもとに、実際の運用要件に対応する形で開発された。一般消費者や企業向けの標準的なClaudeモデルとは異なり、これらの特化型バージョンは機密性の高い資料をより適切に処理できるよう設計されており、Anthropicは「機密情報の取り扱い時に拒否するケースが少ない」と認めている。
Anthropicのパブリックセクター部門責任者であるThiyagu Ramasamy氏は、「Claude Govモデルの特長は、国家安全保障の顧客向けにカスタム構築された点です。彼らの運用ニーズを理解し、現場からのフィードバックを取り入れることで、機密環境の独自の制約や要件下でも優れた性能を発揮する、安全で信頼性の高いモデル群を実現しました」と述べている。
これらのモデルは、政府業務向けに特化した高度な機能を備えており、情報・防衛関連文書の理解力向上、国家安全保障上重要な言語への対応力強化、複雑なサイバーセキュリティデータの解釈精度向上などが挙げられる。国家安全保障の顧客は、戦略立案、業務支援、情報分析、脅威評価などの目的でこれらのAIシステムを活用できる。
Anthropicの防衛分野への進出は、主要AI企業全体の動向を反映している。OpenAIは米国国防総省との連携強化を積極的に模索しており、MetaはLlamaモデルを防衛パートナーに提供、Googleも機密環境向けのGemini AIバージョンを開発中だ。このような競争環境は、国家安全保障分野におけるAIの重要性と、テック大手各社がこの有望市場での地位確立を目指していることを浮き彫りにしている。
なお、Anthropicはこれらのモデルを国家安全保障用途に特化させつつも、Claude Govは他のAIシステムと同様に厳格な安全性テストを経ていると強調しており、機密性の高い政府業務に進出する中でも責任あるAI開発への姿勢を維持している。