主要な立法動向を受けて、AnthropicはフロンティアAIシステム向けの包括的な透明性フレームワークを発表し、安全性と説明責任に関する業界標準の再構築を目指している。
2025年7月7日、米上院がトランプ大統領の内政政策法案から、州によるAI規制の10年間の一時停止条項を99対1で削除した数日後、Anthropicは「ターゲット型透明性フレームワーク」と称する新たな仕組みを発表した。これはイノベーションと責任ある開発の両立を目指すものだ。
このフレームワークは、あえて最大手AI開発企業のみに対象を限定し、中小企業やスタートアップには過度な負担を課さない設計となっている。Anthropicは、年間売上高1億ドル超または研究開発費10億ドル超といった具体的な基準を設け、これを超える企業のみが開示義務の対象となることを提案している。
Anthropicは発表の中で「業界、政府、学術界などが安全基準や評価手法の合意形成を進めているが、このプロセスには数ヶ月から数年かかる可能性がある。その間にも、非常に強力なAIが安全かつ責任を持って、透明性をもって開発されるための暫定的な措置が必要だ」と述べている。
フレームワークの中核は、該当企業に「セキュア開発フレームワーク」の策定と公開を義務付ける点にある。これには、化学・生物・放射線・核(CBRN)分野の悪用リスクや、モデルの自律性の誤作動による潜在的な被害など、重大リスクの評価と低減方法が含まれる。また、システムカードによるテスト手順の要約公開や、内部告発者保護の導入も求められる。
この提案はAI推進団体からも評価されており、Americans for Responsible Innovationのエリック・ガストフレンド事務局長は「Anthropicのフレームワークは、リスク低減計画の公開や開発者の説明責任など、必要不可欠な透明性要件を前進させるものだ」とコメントしている。フレームワークは軽量かつ柔軟な設計で、急速に進化するAI技術の現状を踏まえつつ、責任ある開発のための最低限の期待値を示している。