menu
close

Anthropic презентує цільову структуру прозорості для ШІ

Після рішучого відхилення Сенатом США мораторію на регулювання ШІ на початку липня 2025 року, компанія Anthropic представила цільову структуру прозорості, зосереджену на розвитку передових систем штучного інтелекту. Документ встановлює конкретні вимоги до розкриття інформації щодо практик безпеки, при цьому застосовується лише до найбільших розробників ШІ, створюючи збалансований підхід до саморегулювання галузі. Ця ініціатива знаменує собою суттєву зміну у підходах до відповідальності індустрії ШІ в умовах відсутності всеохоплюючого федерального законодавства.
Anthropic презентує цільову структуру прозорості для ШІ

У стратегічному кроці після важливих законодавчих змін компанія Anthropic презентувала комплексну структуру прозорості для передових систем штучного інтелекту, яка може змінити галузеві стандарти безпеки та підзвітності.

7 липня 2025 року, всього через кілька днів після того, як Сенат США проголосував 99-1 за скасування суперечливого 10-річного мораторію на державне регулювання ШІ з внутрішньополітичного законопроєкту президента Трампа, Anthropic представила так звану «цільову структуру прозорості», покликану збалансувати інновації та відповідальний розвиток.

Структура навмисно стосується лише найбільших розробників ШІ, водночас звільняючи менші компанії та стартапи від потенційно обтяжливих вимог. Anthropic пропонує конкретні порогові показники — наприклад, річний дохід понад 100 мільйонів доларів або витрати на дослідження й розробки понад 1 мільярд доларів — для визначення компаній, які підпадають під обов’язки з розкриття інформації.

«Поки індустрія, уряди, науковці та інші працюють над виробленням погоджених стандартів безпеки та комплексних методів оцінки — процес, який може тривати від кількох місяців до років, — нам потрібні проміжні кроки, щоб забезпечити безпечну, відповідальну та прозору розробку дуже потужного ШІ», — йдеться у заяві Anthropic.

У центрі структури — вимога для відповідних компаній розробляти та публічно оприлюднювати «Рамку безпечної розробки», де детально описується, як вони оцінюють і мінімізують серйозні ризики, зокрема пов’язані з хімічним, біологічним, радіологічним і ядерним зловживанням, а також потенційною шкодою від автономії моделей, що не відповідає намірам розробників. Компанії також повинні публікувати системні картки з підсумком процедур тестування та впроваджувати захист для викривачів.

Пропозиція отримала схвалення від груп, що виступають за відповідальний розвиток ШІ. Виконавчий директор Americans for Responsible Innovation Ерік Гастфренд зазначив: «Структура Anthropic просуває базові вимоги до прозорості, які нам потрібні, наприклад, публікацію планів щодо зменшення ризиків і притягнення розробників до відповідальності за ці плани». Легкий і гнучкий підхід структури враховує швидкі темпи розвитку технологій ШІ, водночас встановлюючи базові очікування щодо відповідального розвитку.

Source: Solutionsreview

Latest News