Коалиция международных регулирующих органов представила масштабные новые правила для технологий чат-ботов с искусственным интеллектом, что стало важной вехой в глобальном управлении ИИ.
Обнародованные 11 июня рекомендации вводят обязательные требования к прозрачности, которые обяжут компании явно информировать пользователей о том, что они взаимодействуют с ИИ, а не с человеком. Это связано с резким ростом популярности чат-ботов: к началу 2025 года, например, у платформы ChatGPT насчитывалось более 400 миллионов активных пользователей в неделю.
Правила также предусматривают стандарты этического использования, обязывая разработчиков внедрять меры по предотвращению вредоносных ответов, включая протоколы для работы с обсуждениями самоповреждений и механизмы предотвращения распространения вводящей в заблуждение информации. Кроме того, компании должны создать системы ответственности для отслеживания и минимизации предвзятости в своих ИИ-системах.
Подход коалиции сочетает инновации с ответственным развитием, избегая прямых запретов в пользу риск-ориентированной классификации, аналогичной действующему с февраля 2025 года Закону ЕС об ИИ. Однако новая глобальная структура идет дальше, устанавливая конкретные требования именно для чат-ботов.
Шестимесячный срок на внедрение вызвал смешанную реакцию у представителей отрасли. Крупные ИИ-компании в целом поддержали стандартизацию регулирования, тогда как небольшие разработчики выразили опасения по поводу затрат на соблюдение новых правил. Новые требования вводятся на фоне сложной регуляторной ситуации: в США при администрации Трампа действует более либеральный подход, а в ЕС продолжается внедрение всеобъемлющего закона об ИИ.
Эти правила появляются в критический момент, когда ИИ все глубже интегрируется в повседневную жизнь, и эксперты полагают, что они могут стать моделью для будущего международного сотрудничества в сфере регулирования искусственного интеллекта.