menu
close

Inilunsad ng Anthropic ang Targeted Framework para sa AI Transparency

Matapos ang mariing pagtanggi ng Senado sa panukalang moratorium para sa regulasyon ng AI noong unang bahagi ng Hulyo 2025, inilunsad ng Anthropic ang isang targeted transparency framework na nakatuon sa pag-unlad ng frontier AI. Itinatakda ng framework ang mga partikular na kinakailangan sa pagsisiwalat para sa mga safety practice habang nakatuon lamang sa pinakamalalaking AI developer, na lumilikha ng balanseng paraan ng sariling regulasyon sa industriya. Ang inisyatibang ito ay kumakatawan sa isang mahalagang pagbabago sa paraan ng pananagutan ng industriya ng AI sa kawalan ng komprehensibong pambansang batas.
Inilunsad ng Anthropic ang Targeted Framework para sa AI Transparency

Bilang tugon sa mahahalagang pagbabago sa batas, inilunsad ng Anthropic ang isang komprehensibong transparency framework para sa mga frontier AI system na maaaring magbago ng pamantayan sa industriya pagdating sa kaligtasan at pananagutan.

Noong Hulyo 7, 2025, ilang araw matapos bumoto ang U.S. Senate ng 99-1 upang alisin ang kontrobersyal na 10-taong moratorium sa mga regulasyon ng estado para sa AI mula sa domestic policy bill ni Pangulong Trump, ipinakilala ng Anthropic ang tinatawag nitong "targeted transparency framework" na idinisenyo upang balansehin ang inobasyon at responsableng pag-unlad.

Sadyang nakatuon ang framework sa pinakamalalaking AI developer habang pinoprotektahan ang maliliit na kumpanya at startup mula sa posibleng mabigat na mga kinakailangan. Nagmumungkahi ang Anthropic ng mga partikular na threshold—gaya ng taunang kita na higit sa $100 milyon o R&D expenditure na lagpas $1 bilyon—upang matukoy kung aling mga kumpanya ang saklaw ng mga obligasyon sa pagsisiwalat ng framework.

"Habang ang industriya, gobyerno, akademya, at iba pa ay nagtutulungan upang makabuo ng napagkasunduang mga pamantayan sa kaligtasan at komprehensibong mga paraan ng pagsusuri—isang prosesong maaaring tumagal ng ilang buwan o taon—kailangan natin ng pansamantalang mga hakbang upang matiyak na ang napakalakas na AI ay nade-develop nang ligtas, responsable, at may transparency," pahayag ng Anthropic sa kanilang anunsyo.

Sa sentro ng framework ay ang rekisito para sa mga kwalipikadong kumpanya na bumuo at maglabas sa publiko ng isang "Secure Development Framework" na nagdedetalye kung paano nila sinusuri at nililimitahan ang mga seryosong panganib, kabilang ang mga kaugnay ng maling paggamit sa kemikal, biyolohikal, radiolohikal, at nukleyar, pati na rin ang posibleng pinsala mula sa misaligned na awtonomiya ng modelo. Kailangan ding maglabas ang mga kumpanya ng system cards na nagbubuod ng mga pamamaraan ng pagsusuri at magpatupad ng proteksyon para sa mga whistleblower.

Pinuri ng mga grupo ng tagapagtaguyod ng AI ang panukala, kung saan sinabi ni Eric Gastfriend, executive director ng Americans for Responsible Innovation: "Itinataguyod ng framework ng Anthropic ang ilan sa mga pangunahing kinakailangan sa transparency na kailangan natin, gaya ng paglalabas ng mga plano para sa pagbawas ng panganib at pananagutin ang mga developer sa mga planong iyon." Ang magaan at flexible na paraan ng framework ay kinikilala ang mabilis na pagbabago ng teknolohiya ng AI habang nagtatakda ng baseline na inaasahan para sa responsableng pag-unlad.

Source: Solutionsreview

Latest News