menu
close

Anthropic presenta un marco específico para la transparencia en IA

Tras el rechazo rotundo del Senado a una moratoria propuesta sobre la regulación de la IA a principios de julio de 2025, Anthropic ha presentado un marco de transparencia dirigido específicamente al desarrollo de IA de vanguardia. El marco establece requisitos concretos de divulgación sobre prácticas de seguridad, aplicándose únicamente a los mayores desarrolladores de IA y creando así un enfoque equilibrado de autorregulación en el sector. Esta iniciativa supone un cambio significativo en la forma en que la industria de la IA aborda la rendición de cuentas en ausencia de una legislación federal integral.
Anthropic presenta un marco específico para la transparencia en IA

En una maniobra estratégica tras importantes desarrollos legislativos, Anthropic ha presentado un marco integral de transparencia para los sistemas de IA de vanguardia que podría redefinir los estándares del sector en materia de seguridad y responsabilidad.

El 7 de julio de 2025, pocos días después de que el Senado de EE. UU. votara por 99 a 1 eliminar una controvertida moratoria de 10 años sobre las regulaciones estatales de IA del proyecto de ley de política interna del presidente Trump, Anthropic presentó lo que denomina un "marco de transparencia específico" diseñado para equilibrar la innovación con el desarrollo responsable.

El marco está dirigido deliberadamente solo a los mayores desarrolladores de IA, eximiendo a las empresas más pequeñas y startups de requisitos potencialmente gravosos. Anthropic propone umbrales concretos—como ingresos anuales superiores a 100 millones de dólares o gastos en I+D superiores a 1.000 millones de dólares—para determinar qué empresas estarían sujetas a las obligaciones de divulgación del marco.

"Mientras la industria, los gobiernos, el mundo académico y otros trabajan para desarrollar estándares de seguridad consensuados y métodos de evaluación exhaustivos—un proceso que podría llevar meses o años—, necesitamos medidas provisionales para garantizar que las IA muy potentes se desarrollen de forma segura, responsable y transparente", afirmó Anthropic en su anuncio.

En el núcleo del marco se encuentra el requisito de que las empresas que cumplan los criterios desarrollen y publiquen de forma pública un "Marco de Desarrollo Seguro" en el que detallen cómo evalúan y mitigan riesgos graves, incluidos los relacionados con el uso indebido químico, biológico, radiológico y nuclear, así como los posibles daños derivados de la autonomía desalineada de los modelos. Las empresas también deberán publicar tarjetas de sistema que resuman los procedimientos de prueba e implementar protecciones para denunciantes.

La propuesta ha recibido elogios de grupos defensores de la IA, como Eric Gastfriend, director ejecutivo de Americans for Responsible Innovation, quien señaló: "El marco de Anthropic impulsa algunos de los requisitos básicos de transparencia que necesitamos, como la publicación de planes para mitigar riesgos y la rendición de cuentas de los desarrolladores respecto a esos planes". El enfoque ligero y flexible del marco reconoce la naturaleza en rápida evolución de la tecnología de IA, a la vez que establece expectativas mínimas para un desarrollo responsable.

Source: Solutionsreview

Latest News