В стратегическом ответе на важные законодательные изменения компания Anthropic представила всеобъемлющую структуру прозрачности для передовых ИИ-систем, которая может изменить отраслевые стандарты безопасности и подотчетности.
7 июля 2025 года, всего через несколько дней после того, как Сенат США проголосовал 99 против 1 за исключение спорного 10-летнего моратория на регулирование ИИ на уровне штатов из внутреннего политического законопроекта президента Трампа, Anthropic объявила о запуске «целевой структуры прозрачности», призванной сбалансировать инновации и ответственную разработку.
Структура намеренно распространяется только на крупнейших разработчиков ИИ, освобождая малые компании и стартапы от потенциально обременительных требований. Anthropic предлагает конкретные пороговые значения — например, годовой доход свыше 100 миллионов долларов или расходы на НИОКР более 1 миллиарда долларов — чтобы определить, какие компании подпадают под обязательства по раскрытию информации.
«Пока отрасль, правительства, академическое сообщество и другие заинтересованные стороны работают над согласованием стандартов безопасности и комплексных методов оценки — процесс, который может занять месяцы или даже годы, — нам необходимы промежуточные шаги, чтобы обеспечить безопасную, ответственную и прозрачную разработку очень мощных ИИ», — говорится в заявлении Anthropic.
В основе структуры лежит требование для соответствующих компаний разрабатывать и публично раскрывать «Рамку безопасной разработки», в которой подробно описывается, как они оценивают и минимизируют серьёзные риски, включая угрозы химического, биологического, радиологического и ядерного характера, а также потенциальный вред от автономии неправильно настроенных моделей. Компании также должны публиковать карточки систем с описанием процедур тестирования и внедрять механизмы защиты информаторов.
Предложение получило одобрение со стороны организаций, выступающих за ответственное развитие ИИ. Исполнительный директор Americans for Responsible Innovation Эрик Гастфренд отметил: «Структура Anthropic продвигает базовые требования к прозрачности, которые нам необходимы, такие как публикация планов по снижению рисков и привлечение разработчиков к ответственности за их выполнение». Лёгкий и гибкий подход структуры учитывает быстрое развитие технологий ИИ, одновременно устанавливая базовые ожидания для ответственной разработки.