menu
close

Anthropic Apresenta Estrutura Direcionada para Transparência em IA

Na sequência da rejeição decisiva pelo Senado de uma proposta de moratória à regulação da IA, no início de julho de 2025, a Anthropic apresentou uma estrutura de transparência direcionada, centrada no desenvolvimento de IA de fronteira. O quadro estabelece requisitos específicos de divulgação para práticas de segurança, aplicando-se apenas aos maiores desenvolvedores de IA, criando assim uma abordagem equilibrada à autorregulação do setor. Esta iniciativa representa uma mudança significativa na forma como a indústria da IA encara a responsabilização na ausência de legislação federal abrangente.
Anthropic Apresenta Estrutura Direcionada para Transparência em IA

Num movimento estratégico após importantes desenvolvimentos legislativos, a Anthropic revelou uma estrutura abrangente de transparência para sistemas de IA de fronteira que poderá redefinir os padrões do setor em matéria de segurança e responsabilização.

A 7 de julho de 2025, poucos dias após o Senado dos EUA ter votado por 99-1 a remoção de uma controversa moratória de 10 anos sobre regulamentos estaduais de IA do projeto de lei de política interna do Presidente Trump, a Anthropic apresentou aquilo a que chama uma "estrutura de transparência direcionada" concebida para equilibrar a inovação com o desenvolvimento responsável.

A estrutura destina-se deliberadamente apenas aos maiores desenvolvedores de IA, protegendo as pequenas empresas e startups de requisitos potencialmente onerosos. A Anthropic propõe critérios específicos — como receitas anuais superiores a 100 milhões de dólares ou despesas de I&D acima de 1 mil milhão de dólares — para determinar que empresas ficariam sujeitas às obrigações de divulgação da estrutura.

"Enquanto a indústria, governos, academia e outros trabalham para desenvolver normas de segurança consensuais e métodos abrangentes de avaliação — um processo que pode demorar meses ou anos — precisamos de medidas intermédias para garantir que IA muito poderosa é desenvolvida de forma segura, responsável e transparente", afirmou a Anthropic no seu anúncio.

No centro da estrutura está o requisito de as empresas abrangidas desenvolverem e divulgarem publicamente uma "Estrutura de Desenvolvimento Seguro" detalhando como avaliam e mitigam riscos graves, incluindo os relacionados com o uso indevido químico, biológico, radiológico e nuclear, bem como potenciais danos decorrentes de autonomia desalinhada dos modelos. As empresas teriam ainda de publicar cartões de sistema que resumam os procedimentos de teste e implementar proteções para denunciantes.

A proposta foi elogiada por grupos de defesa da IA, com Eric Gastfriend, diretor executivo da Americans for Responsible Innovation, a salientar: "A estrutura da Anthropic avança alguns dos requisitos básicos de transparência de que necessitamos, como a divulgação de planos para mitigar riscos e responsabilizar os desenvolvedores por esses planos." A abordagem leve e flexível da estrutura reconhece a natureza em rápida evolução da tecnologia de IA, ao mesmo tempo que estabelece expectativas mínimas para um desenvolvimento responsável.

Source: Solutionsreview

Latest News