menu
close

La bévue de Claude IA en matière de citations juridiques plonge Anthropic dans l'embarras

Le cabinet d'avocats Latham & Watkins d'Anthropic a admis qu'une de ses avocates avait utilisé Claude IA pour générer une citation dans le cadre d'un procès en droit d'auteur intenté par des éditeurs de musique, ce qui a mené à une référence inventée avec de faux auteurs et un faux titre. L'incident s'est produit lorsque l'avocate Ivana Dukanovic a utilisé l'IA d'Anthropic pour formater une citation d'un article académique légitime, mais n'a pas détecté les erreurs lors de la révision. La juge américaine Susan van Keulen a qualifié la situation de « très grave et sérieuse », soulignant les préoccupations croissantes quant à la fiabilité de l'IA dans le domaine juridique.
La bévue de Claude IA en matière de citations juridiques plonge Anthropic dans l'embarras

Dans un retournement de situation ironique qui met en lumière les défis liés à l'adoption de l'IA dans les milieux professionnels, la propre IA d'Anthropic, Claude, a causé des ennuis à l'entreprise devant les tribunaux.

Le jeudi 15 mai 2025, l'avocate Ivana Dukanovic du cabinet Latham & Watkins a présenté des excuses officielles à une cour fédérale du nord de la Californie après avoir utilisé Claude pour générer une citation juridique contenant des informations fabriquées. La citation inventée figurait dans une déclaration de la scientifique des données d'Anthropic, Olivia Chen, qui agissait comme témoin expert dans la bataille en cours de l'entreprise contre les éditeurs de musique concernant le droit d'auteur.

La poursuite, intentée par Universal Music Group, Concord et ABKCO, allègue qu'Anthropic a utilisé illégalement des paroles de chansons protégées par le droit d'auteur pour entraîner son modèle Claude IA. Les éditeurs affirment que l'IA a été entraînée à partir des paroles d'au moins 500 chansons d'artistes tels que Beyoncé, les Rolling Stones et les Beach Boys, sans autorisation adéquate.

Selon les documents judiciaires, Dukanovic a demandé à Claude de formater une citation pour un véritable article de revue académique publié dans The American Statistician, auquel Chen avait fait référence. Bien que Claude ait fourni le bon titre de la publication, l'année et le lien, l'IA a inventé de faux auteurs et un titre erroné. La « vérification manuelle de la citation » effectuée par l'avocate n'a pas permis de repérer ces erreurs avant le dépôt du document.

La juge américaine Susan van Keulen s'est dite très préoccupée par l'incident, soulignant qu'il y a « tout un monde entre une citation manquée et une hallucination générée par l'IA ». En réaction, Latham & Watkins a mis en place « plusieurs niveaux de révision additionnels » afin d'éviter que de tels incidents ne se reproduisent.

Cette affaire s'ajoute à une liste croissante d'incidents d'hallucinations générées par l'IA dans le domaine juridique. Plus tôt ce mois-ci, un juge californien a sanctionné deux cabinets d'avocats pour avoir soumis de la « recherche juridique bidon générée par l'IA », leur ordonnant de payer 31 100 $ en frais juridiques. Dans une autre affaire récente, un avocat a été congédié après avoir utilisé ChatGPT pour générer de fausses citations juridiques. Des experts juridiques avertissent que les outils d'IA peuvent être utiles pour la réflexion, mais ne peuvent remplacer la recherche juridique traditionnelle ni les processus de vérification.

Alors que l'adoption de l'IA s'accélère dans les milieux professionnels, cet incident fait office de mise en garde quant aux limites de la technologie et à l'importance cruciale de la supervision humaine, particulièrement dans des environnements à enjeux élevés comme les salles d'audience, où l'exactitude et la crédibilité sont primordiales.

Source:

Latest News