Dans une démarche stratégique faisant suite à d’importantes évolutions législatives, Anthropic a dévoilé un cadre de transparence complet pour les systèmes d’IA de pointe, susceptible de redéfinir les normes du secteur en matière de sécurité et de responsabilité.
Le 7 juillet 2025, quelques jours seulement après que le Sénat américain a voté à 99 voix contre 1 la suppression d’un moratoire controversé de 10 ans sur la régulation étatique de l’IA, inclus dans un projet de loi de politique intérieure du président Trump, Anthropic a présenté ce qu’elle appelle un « cadre de transparence ciblé » visant à concilier innovation et développement responsable.
Ce cadre cible délibérément uniquement les plus grands développeurs d’IA, tout en protégeant les petites entreprises et les start-ups de contraintes potentiellement lourdes. Anthropic propose des seuils précis — tels qu’un chiffre d’affaires annuel supérieur à 100 millions de dollars ou des dépenses de R&D dépassant 1 milliard de dollars — pour déterminer quelles entreprises seraient soumises aux obligations de divulgation du cadre.
« Alors que l’industrie, les gouvernements, le monde académique et d’autres acteurs travaillent à l’élaboration de normes de sécurité et de méthodes d’évaluation complètes — un processus qui pourrait prendre des mois, voire des années — nous avons besoin de mesures provisoires pour garantir que des IA très puissantes soient développées de manière sûre, responsable et transparente », a déclaré Anthropic dans son annonce.
Au cœur du cadre se trouve l’exigence pour les entreprises concernées de développer et de publier un « cadre de développement sécurisé » détaillant la manière dont elles évaluent et atténuent les risques graves, y compris ceux liés à l’utilisation abusive de substances chimiques, biologiques, radiologiques et nucléaires, ainsi que les dommages potentiels liés à l’autonomie mal alignée des modèles. Les entreprises devront également publier des fiches système résumant les procédures de test et mettre en place des protections pour les lanceurs d’alerte.
La proposition a été saluée par des groupes de défense de l’IA, Eric Gastfriend, directeur exécutif d’Americans for Responsible Innovation, déclarant : « Le cadre d’Anthropic fait progresser certaines des exigences de transparence de base dont nous avons besoin, comme la publication de plans d’atténuation des risques et la responsabilisation des développeurs vis-à-vis de ces plans. » L’approche légère et flexible du cadre prend en compte l’évolution rapide de la technologie de l’IA, tout en posant des attentes minimales pour un développement responsable.