menu
close

Anthropic Apresenta Estrutura Direcionada para Transparência em IA

Após a rejeição decisiva do Senado a uma proposta de moratória para regulamentação de IA no início de julho de 2025, a Anthropic lançou uma estrutura de transparência direcionada com foco no desenvolvimento de IA de fronteira. O framework estabelece requisitos específicos de divulgação para práticas de segurança, aplicando-se apenas aos maiores desenvolvedores de IA e criando uma abordagem equilibrada para a autorregulação do setor. Essa iniciativa representa uma mudança significativa na forma como a indústria de IA aborda a responsabilidade na ausência de uma legislação federal abrangente.
Anthropic Apresenta Estrutura Direcionada para Transparência em IA

Em um movimento estratégico após importantes desenvolvimentos legislativos, a Anthropic revelou uma estrutura abrangente de transparência para sistemas de IA de fronteira que pode redefinir os padrões do setor em termos de segurança e responsabilidade.

Em 7 de julho de 2025, poucos dias após o Senado dos EUA votar por 99 a 1 pela remoção de uma polêmica moratória de 10 anos sobre regulamentações estaduais de IA do projeto de política interna do presidente Trump, a Anthropic apresentou o que chama de "estrutura de transparência direcionada", projetada para equilibrar inovação e desenvolvimento responsável.

O framework é direcionado deliberadamente apenas aos maiores desenvolvedores de IA, protegendo empresas menores e startups de exigências potencialmente onerosas. A Anthropic propõe critérios específicos—como receita anual superior a US$ 100 milhões ou despesas de P&D acima de US$ 1 bilhão—para determinar quais empresas estariam sujeitas às obrigações de divulgação do framework.

"Enquanto a indústria, governos, academia e outros trabalham para desenvolver padrões de segurança consensuais e métodos abrangentes de avaliação—um processo que pode levar meses ou anos—precisamos de medidas intermediárias para garantir que IAs muito poderosas sejam desenvolvidas de forma segura, responsável e transparente", afirmou a Anthropic em seu anúncio.

No centro da estrutura está a exigência de que as empresas qualificadas desenvolvam e divulguem publicamente uma "Estrutura de Desenvolvimento Seguro" detalhando como avaliam e mitigam riscos graves, incluindo aqueles relacionados ao uso indevido químico, biológico, radiológico e nuclear, bem como potenciais danos decorrentes da autonomia desalinhada dos modelos. As empresas também precisariam publicar "cartões de sistema" resumindo procedimentos de testes e implementar proteções para denunciantes.

A proposta recebeu elogios de grupos de defesa da IA, com Eric Gastfriend, diretor executivo da Americans for Responsible Innovation, destacando: "O framework da Anthropic avança alguns dos requisitos básicos de transparência de que precisamos, como divulgar planos para mitigar riscos e responsabilizar os desenvolvedores por esses planos." A abordagem leve e flexível do framework reconhece a natureza em rápida evolução da tecnologia de IA, ao mesmo tempo em que estabelece expectativas mínimas para o desenvolvimento responsável.

Source: Solutionsreview

Latest News