menu
close

L’errore nelle citazioni legali di Claude AI mette Anthropic nei guai

Lo studio legale di Anthropic, Latham & Watkins, ha ammesso che un proprio avvocato ha utilizzato Claude AI per generare una citazione in una causa per copyright intentata dagli editori musicali, producendo però un riferimento inventato con autori e titolo falsi. L’incidente è avvenuto quando l’avvocata Ivana Dukanovic ha usato l’AI di Anthropic per formattare la citazione di un vero articolo accademico, senza però accorgersi degli errori durante la revisione. La giudice federale Susan van Keulen ha definito la situazione "un problema molto serio e grave", evidenziando le crescenti preoccupazioni sull’affidabilità dell’AI in ambito legale.
L’errore nelle citazioni legali di Claude AI mette Anthropic nei guai

In una svolta ironica che mette in luce le sfide dell’adozione dell’intelligenza artificiale in ambito professionale, la stessa Claude AI di Anthropic ha creato problemi all’azienda in tribunale.

Giovedì 15 maggio 2025, l’avvocata Ivana Dukanovic dello studio Latham & Watkins si è formalmente scusata davanti a un tribunale federale della California settentrionale dopo aver utilizzato Claude per generare una citazione legale contenente informazioni inventate. La citazione allucinata è apparsa in una dichiarazione della data scientist di Anthropic, Olivia Chen, chiamata come esperta nella causa per copyright che vede coinvolta l’azienda contro gli editori musicali.

La causa, intentata da Universal Music Group, Concord e ABKCO, sostiene che Anthropic abbia utilizzato testi di canzoni protetti da copyright per addestrare il proprio modello Claude AI. Gli editori affermano che l’AI sia stata addestrata su testi di almeno 500 brani di artisti come Beyoncé, i Rolling Stones e i Beach Boys senza le dovute autorizzazioni.

Secondo i documenti processuali, Dukanovic aveva chiesto a Claude di formattare la citazione di un vero articolo accademico pubblicato su The American Statistician, già menzionato da Chen. Sebbene Claude abbia fornito correttamente il titolo della rivista, l’anno e il link, ha inventato autori fittizi e un titolo errato. Il controllo manuale della citazione da parte dell’avvocata non ha permesso di individuare questi errori prima della presentazione.

La giudice federale Susan van Keulen ha espresso seria preoccupazione per l’accaduto, sottolineando che "c’è un’enorme differenza tra una citazione mancante e una allucinazione generata dall’AI". In risposta, Latham & Watkins ha introdotto "molteplici livelli aggiuntivi di revisione" per prevenire simili episodi.

Questo caso si aggiunge a una crescente lista di incidenti legati alle allucinazioni dell’AI nei procedimenti legali. All’inizio del mese, un giudice californiano ha sanzionato due studi legali per aver presentato "ricerche fasulle generate dall’AI", ordinando loro il pagamento di 31.100 dollari in spese legali. In un altro caso recente, un avvocato è stato licenziato dopo aver utilizzato ChatGPT per generare citazioni legali false. Gli esperti del settore avvertono che gli strumenti di intelligenza artificiale possono essere utili per il brainstorming, ma non possono sostituire la ricerca e la verifica legale tradizionali.

Con l’accelerazione dell’adozione dell’AI nei settori professionali, questo episodio rappresenta un monito sui limiti della tecnologia e sull’importanza cruciale della supervisione umana, soprattutto in contesti delicati come le aule di tribunale, dove accuratezza e credibilità sono fondamentali.

Source:

Latest News