menu
close

Anthropic Presenta un Marco Específico para la Transparencia en IA

Tras el contundente rechazo del Senado a una propuesta de moratoria sobre la regulación de IA a principios de julio de 2025, Anthropic ha presentado un marco de transparencia enfocado en el desarrollo de IA de frontera. El marco establece requisitos específicos de divulgación sobre prácticas de seguridad, aplicando únicamente a los desarrolladores de IA más grandes y generando así un enfoque equilibrado para la autorregulación de la industria. Esta iniciativa representa un cambio significativo en la manera en que la industria de la IA aborda la rendición de cuentas ante la ausencia de una legislación federal integral.
Anthropic Presenta un Marco Específico para la Transparencia en IA

En una jugada estratégica tras importantes desarrollos legislativos, Anthropic ha presentado un marco integral de transparencia para sistemas de IA de frontera que podría redefinir los estándares de la industria en materia de seguridad y responsabilidad.

El 7 de julio de 2025, apenas unos días después de que el Senado de Estados Unidos votara 99-1 para eliminar una polémica moratoria de 10 años sobre regulaciones estatales de IA del proyecto de política interna del presidente Trump, Anthropic introdujo lo que denomina un "marco de transparencia específico" diseñado para equilibrar la innovación con el desarrollo responsable.

El marco está dirigido deliberadamente solo a los desarrolladores de IA más grandes, protegiendo a las empresas pequeñas y startups de requisitos potencialmente onerosos. Anthropic propone umbrales específicos—como ingresos anuales superiores a 100 millones de dólares o gastos en I+D mayores a 1,000 millones de dólares—para determinar qué empresas estarían sujetas a las obligaciones de divulgación del marco.

"Mientras la industria, los gobiernos, la academia y otros trabajan para desarrollar estándares de seguridad y métodos de evaluación consensuados—un proceso que podría tomar meses o años—necesitamos pasos intermedios para asegurar que las IA muy potentes se desarrollen de manera segura, responsable y transparente", señaló Anthropic en su anuncio.

En el centro del marco se encuentra el requisito de que las empresas que cumplan con los criterios desarrollen y divulguen públicamente un "Marco de Desarrollo Seguro" en el que detallen cómo evalúan y mitigan riesgos graves, incluidos aquellos relacionados con el uso indebido químico, biológico, radiológico y nuclear, así como los posibles daños derivados de la autonomía desalineada de los modelos. Las empresas también deberán publicar tarjetas de sistema que resuman los procedimientos de prueba e implementar protecciones para denunciantes.

La propuesta ha recibido elogios de grupos de defensa de la IA, como Eric Gastfriend, director ejecutivo de Americans for Responsible Innovation, quien señaló: "El marco de Anthropic promueve algunos de los requisitos básicos de transparencia que necesitamos, como la publicación de planes para mitigar riesgos y la rendición de cuentas de los desarrolladores respecto a esos planes". El enfoque ligero y flexible del marco reconoce la naturaleza rápidamente cambiante de la tecnología de IA, al tiempo que establece expectativas mínimas para un desarrollo responsable.

Source: Solutionsreview

Latest News