menu
close

Anthropic представляет целевую структуру прозрачности для ИИ

После решительного отклонения Сенатом США в начале июля 2025 года предложенного моратория на регулирование ИИ компания Anthropic представила целевую структуру прозрачности, ориентированную на разработку передовых ИИ. Эта структура устанавливает конкретные требования к раскрытию информации о мерах безопасности и применяется только к крупнейшим разработчикам ИИ, обеспечивая сбалансированный подход к саморегулированию отрасли. Инициатива знаменует собой значительный сдвиг в подходе индустрии ИИ к вопросам ответственности в условиях отсутствия комплексного федерального законодательства.
Anthropic представляет целевую структуру прозрачности для ИИ

В стратегическом ответе на важные законодательные изменения компания Anthropic представила всеобъемлющую структуру прозрачности для передовых ИИ-систем, которая может изменить отраслевые стандарты безопасности и подотчетности.

7 июля 2025 года, всего через несколько дней после того, как Сенат США проголосовал 99 против 1 за исключение спорного 10-летнего моратория на регулирование ИИ на уровне штатов из внутреннего политического законопроекта президента Трампа, Anthropic объявила о запуске «целевой структуры прозрачности», призванной сбалансировать инновации и ответственную разработку.

Структура намеренно распространяется только на крупнейших разработчиков ИИ, освобождая малые компании и стартапы от потенциально обременительных требований. Anthropic предлагает конкретные пороговые значения — например, годовой доход свыше 100 миллионов долларов или расходы на НИОКР более 1 миллиарда долларов — чтобы определить, какие компании подпадают под обязательства по раскрытию информации.

«Пока отрасль, правительства, академическое сообщество и другие заинтересованные стороны работают над согласованием стандартов безопасности и комплексных методов оценки — процесс, который может занять месяцы или даже годы, — нам необходимы промежуточные шаги, чтобы обеспечить безопасную, ответственную и прозрачную разработку очень мощных ИИ», — говорится в заявлении Anthropic.

В основе структуры лежит требование для соответствующих компаний разрабатывать и публично раскрывать «Рамку безопасной разработки», в которой подробно описывается, как они оценивают и минимизируют серьёзные риски, включая угрозы химического, биологического, радиологического и ядерного характера, а также потенциальный вред от автономии неправильно настроенных моделей. Компании также должны публиковать карточки систем с описанием процедур тестирования и внедрять механизмы защиты информаторов.

Предложение получило одобрение со стороны организаций, выступающих за ответственное развитие ИИ. Исполнительный директор Americans for Responsible Innovation Эрик Гастфренд отметил: «Структура Anthropic продвигает базовые требования к прозрачности, которые нам необходимы, такие как публикация планов по снижению рисков и привлечение разработчиков к ответственности за их выполнение». Лёгкий и гибкий подход структуры учитывает быстрое развитие технологий ИИ, одновременно устанавливая базовые ожидания для ответственной разработки.

Source: Solutionsreview

Latest News