menu
close

Anthropic Predstavlja Ciljani Okvir za Transparentnost Umjetne Inteligencije

Nakon što je Senat početkom srpnja 2025. odlučno odbacio prijedlog o moratoriju na regulaciju umjetne inteligencije, Anthropic je predstavio ciljani okvir transparentnosti usmjeren na razvoj napredne umjetne inteligencije. Okvir uvodi specifične zahtjeve za objavu informacija o sigurnosnim praksama, a primjenjuje se isključivo na najveće AI developere, čime se postiže uravnotežen pristup samoregulaciji industrije. Ova inicijativa predstavlja značajnu promjenu u načinu na koji AI industrija pristupa odgovornosti u odsutnosti sveobuhvatnog saveznog zakonodavstva.
Anthropic Predstavlja Ciljani Okvir za Transparentnost Umjetne Inteligencije

U strateškom potezu nakon važnih zakonodavnih promjena, Anthropic je predstavio sveobuhvatan okvir transparentnosti za napredne AI sustave koji bi mogao preoblikovati industrijske standarde sigurnosti i odgovornosti.

Dana 7. srpnja 2025., samo nekoliko dana nakon što je američki Senat s 99 prema 1 glasom ukinuo kontroverzni desetogodišnji moratorij na državnu regulaciju AI iz domaćeg političkog paketa predsjednika Trumpa, Anthropic je predstavio tzv. „ciljani okvir transparentnosti“ osmišljen kako bi uravnotežio inovacije s odgovornim razvojem.

Okvir je namjerno usmjeren samo na najveće AI developere, dok manje tvrtke i startupi ostaju zaštićeni od potencijalno opterećujućih zahtjeva. Anthropic predlaže konkretne pragove—poput godišnjeg prihoda većeg od 100 milijuna dolara ili ulaganja u istraživanje i razvoj iznad milijardu dolara—kako bi se odredilo koje će tvrtke podlijegati obvezama objave informacija iz ovog okvira.

„Dok industrija, vlade, akademska zajednica i drugi rade na razvoju dogovorenih sigurnosnih standarda i sveobuhvatnih metoda procjene—procesu koji može potrajati mjesecima ili godinama—potrebni su nam privremeni koraci kako bismo osigurali da se vrlo moćna umjetna inteligencija razvija sigurno, odgovorno i transparentno“, navodi Anthropic u svojoj objavi.

U središtu okvira nalazi se zahtjev da kvalificirane tvrtke razviju i javno objave „Okvir sigurnog razvoja“ u kojem detaljno opisuju kako procjenjuju i ublažavaju ozbiljne rizike, uključujući one povezane s kemijskom, biološkom, radiološkom i nuklearnom zloupotrebom, kao i potencijalne štete od neusklađene autonomije modela. Tvrtke bi također morale objavljivati sistemske kartice sažetaka testiranja i uvesti zaštitu zviždača.

Prijedlog je naišao na pohvale zagovaračkih skupina za umjetnu inteligenciju. Eric Gastfriend, izvršni direktor organizacije Americans for Responsible Innovation, istaknuo je: „Anthropicov okvir unapređuje neke od osnovnih zahtjeva za transparentnošću koji su nam potrebni, poput objave planova za ublažavanje rizika i odgovornosti developera za te planove.“ Pristup okvira, koji je lagan i fleksibilan, prepoznaje brzo mijenjajuću prirodu AI tehnologije, dok istovremeno postavlja temeljna očekivanja za odgovoran razvoj.

Source: Solutionsreview

Latest News