주요 입법 변화에 대응해 앤트로픽이 첨단 AI 시스템을 위한 포괄적 투명성 프레임워크를 공개했다. 이는 AI 산업의 안전성과 책임성 기준을 재정립할 수 있는 전략적 조치로 평가된다.
2025년 7월 7일, 미국 상원이 트럼프 대통령의 국내 정책 법안에서 주(州) 차원의 AI 규제 10년 유예 조항을 99대 1로 삭제한 지 며칠 만에, 앤트로픽은 혁신과 책임 있는 개발의 균형을 목표로 한 '맞춤형 투명성 프레임워크'를 선보였다.
이 프레임워크는 업계 최대 규모의 AI 개발사만을 대상으로 하며, 중소기업과 스타트업에는 과도한 부담을 지우지 않도록 설계됐다. 앤트로픽은 연 매출 1억 달러 초과 또는 연구개발비 10억 달러 초과 등 구체적 기준을 제시해, 해당 요건을 충족하는 기업만이 공개 의무를 지도록 했다.
앤트로픽은 발표문에서 "산업계, 정부, 학계 등 다양한 주체가 안전 기준과 평가 방법을 마련하는 데 수개월에서 수년이 걸릴 수 있다"며, "그동안 매우 강력한 AI가 안전하고 책임감 있게, 그리고 투명하게 개발되도록 중간 단계 조치가 필요하다"고 밝혔다.
프레임워크의 핵심은 해당 기업들이 '안전 개발 프레임워크'를 마련해, 화학·생물·방사능·핵 오용 위험과 모델 자율성 오작동 등 심각한 리스크 평가 및 완화 방안을 공개적으로 명시하는 것이다. 또한, 테스트 절차를 요약한 시스템 카드 공개와 내부고발자 보호 조치 도입도 의무화된다.
이 제안은 AI 옹호 단체들로부터 긍정적 평가를 받고 있다. 미국 책임 혁신을 위한 시민연합(ARI)의 에릭 개스트프렌드 사무국장은 "앤트로픽의 프레임워크는 위험 완화 계획 공개와 개발자 책임성 확보 등 우리가 필요로 하는 기본 투명성 요건을 진전시켰다"고 평가했다. 이 프레임워크는 AI 기술의 빠른 진화 속도를 반영해 유연하고 경량화된 접근법을 취하면서도, 책임 있는 개발을 위한 최소한의 기대치를 제시한다.