Într-o mișcare strategică ce urmează unor evoluții legislative majore, Anthropic a prezentat un cadru cuprinzător de transparență pentru sistemele AI de frontieră, care ar putea remodela standardele industriei privind siguranța și responsabilitatea.
Pe 7 iulie 2025, la doar câteva zile după ce Senatul SUA a votat cu 99-1 pentru eliminarea unui moratoriu controversat de 10 ani asupra reglementărilor statale privind AI din proiectul de politică internă al președintelui Trump, Anthropic a introdus ceea ce numește un „cadru de transparență țintit”, conceput pentru a echilibra inovația cu dezvoltarea responsabilă.
Cadrul vizează deliberat doar cei mai mari dezvoltatori de AI, protejând în același timp companiile mici și startup-urile de cerințe potențial împovărătoare. Anthropic propune praguri specifice—cum ar fi venituri anuale de peste 100 de milioane de dolari sau cheltuieli de cercetare și dezvoltare de peste 1 miliard de dolari—pentru a determina care companii ar intra sub incidența obligațiilor de divulgare prevăzute de cadru.
„În timp ce industria, guvernele, mediul academic și alți actori lucrează la dezvoltarea unor standarde de siguranță agreate și a unor metode cuprinzătoare de evaluare—un proces care ar putea dura luni sau chiar ani—avem nevoie de măsuri intermediare pentru a ne asigura că AI-ul foarte puternic este dezvoltat în mod sigur, responsabil și transparent”, a declarat Anthropic în anunțul său.
În centrul cadrului se află cerința ca firmele eligibile să elaboreze și să publice un „Cadru de Dezvoltare Securizată”, detaliind modul în care evaluează și atenuează riscurile grave, inclusiv cele legate de utilizarea abuzivă chimică, biologică, radiologică și nucleară, precum și potențialele daune cauzate de autonomia nealiniată a modelelor. Companiile vor trebui, de asemenea, să publice fișe de sistem care să rezume procedurile de testare și să implementeze protecții pentru avertizorii de integritate.
Propunerea a fost lăudată de grupurile de advocacy AI, Eric Gastfriend, director executiv la Americans for Responsible Innovation, menționând: „Cadrul propus de Anthropic avansează unele dintre cerințele de transparență de bază de care avem nevoie, cum ar fi publicarea planurilor de atenuare a riscurilor și responsabilizarea dezvoltatorilor față de aceste planuri.” Abordarea flexibilă și ușoară a cadrului recunoaște natura rapid evolutivă a tehnologiei AI, stabilind totodată așteptări de bază pentru dezvoltarea responsabilă.