Коалиция от международни регулаторни органи въведе мащабни нови регулации за технологиите на AI чатботовете, отбелязвайки ключов момент в глобалното управление на изкуствения интелект.
Обявените на 11 юни насоки въвеждат задължителни изисквания за прозрачност, които ще задължат компаниите ясно да уведомяват потребителите, когато взаимодействат с AI, а не с човек. Това се случва на фона на рязко нарасналата употреба на AI чатботове, като платформи като ChatGPT достигнаха над 400 милиона седмични активни потребители в началото на 2025 г.
Регулациите изискват също така спазване на етични стандарти при използването на AI, като задължават разработчиците да внедрят мерки срещу вредни резултати, включително протоколи за справяне с теми като самонараняване и механизми за предотвратяване на генерирането на подвеждаща информация. Компаниите трябва да създадат и рамки за отчетност, които да проследяват и намаляват пристрастията в техните системи.
Подходът на коалицията балансира между иновациите и отговорното развитие, като избягва пълните забрани в полза на класификация на риска, подобна на тази в Европейския закон за AI, който започна частично прилагане през февруари 2025 г. Новата глобална рамка обаче отива по-далеч, като въвежда конкретни изисквания специално за чатбот технологиите.
Шестмесечният срок за прилагане предизвика смесени реакции сред лидерите в индустрията. Докато големите AI компании като цяло подкрепят стандартизираните регулации, по-малките разработчици изразяват опасения относно разходите по съответствието. Регулациите се появяват на фона на сложна регулаторна среда, при която САЩ възприемат по-свободен подход при администрацията на Тръмп, докато ЕС продължава да прилага своя всеобхватен AI закон.
Тези регулации идват в критичен момент, когато AI става все по-интегриран в ежедневието, а експерти предполагат, че те могат да послужат като модел за бъдещо международно сътрудничество в управлението на изкуствения интелект.