menu
close

Erro de Citação Legal do Claude AI Coloca a Anthropic em Maus Lençóis

O escritório de advogados da Anthropic, Latham & Watkins, admitiu que uma das suas advogadas utilizou o Claude AI para gerar uma citação num processo de direitos de autor movido por editoras musicais, resultando numa referência inventada com autores e título falsos. O incidente ocorreu quando a advogada Ivana Dukanovic recorreu à IA da própria Anthropic para formatar uma citação de um artigo académico legítimo, mas não detetou os erros durante a revisão. A juíza norte-americana Susan van Keulen classificou a situação como 'um problema muito sério e grave', sublinhando as crescentes preocupações sobre a fiabilidade da IA em contextos jurídicos.
Erro de Citação Legal do Claude AI Coloca a Anthropic em Maus Lençóis

Num episódio irónico que evidencia os desafios da adoção de IA em ambientes profissionais, o Claude AI da própria Anthropic causou problemas à empresa em tribunal.

Na quinta-feira, 15 de maio de 2025, a advogada Ivana Dukanovic, do escritório Latham & Watkins, apresentou um pedido formal de desculpas a um tribunal federal do norte da Califórnia após ter utilizado o Claude para gerar uma citação legal que continha informações fabricadas. A citação inventada surgiu numa declaração da cientista de dados da Anthropic, Olivia Chen, que atuava como perita no processo de direitos de autor em curso entre a empresa e editoras musicais.

O processo, movido pela Universal Music Group, Concord e ABKCO, alega que a Anthropic utilizou indevidamente letras de músicas protegidas por direitos de autor para treinar o seu modelo Claude AI. As editoras afirmam que a IA foi treinada com letras de pelo menos 500 músicas de artistas como Beyoncé, Rolling Stones e The Beach Boys, sem a devida autorização.

De acordo com documentos judiciais, Dukanovic pediu ao Claude que formatasse uma citação de um artigo académico legítimo da revista The American Statistician, referenciado por Chen. Embora o Claude tenha fornecido corretamente o nome da publicação, o ano e o link, inventou autores falsos e um título incorreto. A 'verificação manual da citação' feita pela advogada não detetou estes erros antes da submissão.

A juíza norte-americana Susan van Keulen manifestou grande preocupação com o incidente, salientando que existe 'uma diferença abismal entre uma citação em falta e uma alucinação gerada por IA'. Em resposta, o escritório Latham & Watkins implementou 'vários níveis adicionais de revisão' para evitar situações semelhantes.

Este caso junta-se a uma lista crescente de incidentes de alucinação de IA em processos judiciais. No início deste mês, um juiz da Califórnia sancionou dois escritórios de advogados por apresentarem 'pesquisa jurídica falsa gerada por IA', obrigando-os a pagar 31.100 dólares em custas judiciais. Noutro caso recente, um advogado foi despedido após utilizar o ChatGPT para gerar citações jurídicas falsas. Especialistas alertam que as ferramentas de IA podem ser úteis para brainstorming, mas não substituem a investigação e verificação jurídica tradicional.

À medida que a adoção de IA acelera em várias áreas profissionais, este incidente serve de aviso sobre as limitações da tecnologia e a importância crítica da supervisão humana, especialmente em ambientes de alto risco como os tribunais, onde a precisão e a credibilidade são fundamentais.

Source:

Latest News