В стратегически ход след важни законодателни промени, Anthropic представи цялостна рамка за прозрачност при най-напредналите AI системи, която може да промени стандартите в индустрията по отношение на безопасността и отчетността.
На 7 юли 2025 г., само дни след като Сенатът на САЩ гласува с 99 срещу 1 за премахване на спорния 10-годишен мораториум върху щатското регулиране на изкуствения интелект от законопроекта за вътрешна политика на президента Тръмп, Anthropic въведе т.нар. „целенасочена рамка за прозрачност“, създадена да балансира иновациите с отговорното развитие.
Рамката умишлено се отнася само за най-големите AI разработчици, като предпазва по-малките компании и стартиращите фирми от потенциално тежки изисквания. Anthropic предлага конкретни прагове – като годишни приходи над 100 милиона долара или разходи за научноизследователска и развойна дейност над 1 милиард долара – за да определи кои компании ще бъдат обект на задълженията за разкриване на информация по рамката.
„Докато индустрията, правителствата, академичните среди и други работят по изготвянето на общи стандарти за безопасност и цялостни методи за оценка – процес, който може да отнеме месеци или години – са необходими междинни стъпки, за да гарантираме, че много мощният AI се развива сигурно, отговорно и прозрачно“, заявиха от Anthropic в своето съобщение.
В основата на рамката стои изискването квалифицираните компании да разработят и публично да оповестят „Рамка за сигурно развитие“, в която да опишат как оценяват и ограничават сериозни рискове, включително такива, свързани с химическа, биологична, радиологична и ядрена злоупотреба, както и потенциални вреди от автономия на моделите, която не съответства на целите. Компаниите ще трябва също така да публикуват системни карти, обобщаващи процедурите за тестване, и да въведат защита за сигнализиращите служители.
Предложението получи одобрение от организации, застъпващи се за отговорен AI, като изпълнителният директор на Americans for Responsible Innovation Ерик Гастфренд отбеляза: „Рамката на Anthropic въвежда някои от основните изисквания за прозрачност, от които се нуждаем, като публикуване на планове за ограничаване на рисковете и държане на разработчиците отговорни за тяхното изпълнение.“ Лекотата и гъвкавостта на рамката отразяват бързо развиващата се същност на AI технологиите, като същевременно поставят основни очаквания за отговорно развитие.