Dans un retournement de situation ironique qui met en lumière les défis liés à l'adoption de l'IA dans les milieux professionnels, la propre IA d'Anthropic, Claude, a causé des ennuis à l'entreprise devant les tribunaux.
Le jeudi 15 mai 2025, l'avocate Ivana Dukanovic du cabinet Latham & Watkins a présenté des excuses officielles à une cour fédérale du nord de la Californie après avoir utilisé Claude pour générer une citation juridique contenant des informations fabriquées. La citation inventée figurait dans une déclaration de la scientifique des données d'Anthropic, Olivia Chen, qui agissait comme témoin expert dans la bataille en cours de l'entreprise contre les éditeurs de musique concernant le droit d'auteur.
La poursuite, intentée par Universal Music Group, Concord et ABKCO, allègue qu'Anthropic a utilisé illégalement des paroles de chansons protégées par le droit d'auteur pour entraîner son modèle Claude IA. Les éditeurs affirment que l'IA a été entraînée à partir des paroles d'au moins 500 chansons d'artistes tels que Beyoncé, les Rolling Stones et les Beach Boys, sans autorisation adéquate.
Selon les documents judiciaires, Dukanovic a demandé à Claude de formater une citation pour un véritable article de revue académique publié dans The American Statistician, auquel Chen avait fait référence. Bien que Claude ait fourni le bon titre de la publication, l'année et le lien, l'IA a inventé de faux auteurs et un titre erroné. La « vérification manuelle de la citation » effectuée par l'avocate n'a pas permis de repérer ces erreurs avant le dépôt du document.
La juge américaine Susan van Keulen s'est dite très préoccupée par l'incident, soulignant qu'il y a « tout un monde entre une citation manquée et une hallucination générée par l'IA ». En réaction, Latham & Watkins a mis en place « plusieurs niveaux de révision additionnels » afin d'éviter que de tels incidents ne se reproduisent.
Cette affaire s'ajoute à une liste croissante d'incidents d'hallucinations générées par l'IA dans le domaine juridique. Plus tôt ce mois-ci, un juge californien a sanctionné deux cabinets d'avocats pour avoir soumis de la « recherche juridique bidon générée par l'IA », leur ordonnant de payer 31 100 $ en frais juridiques. Dans une autre affaire récente, un avocat a été congédié après avoir utilisé ChatGPT pour générer de fausses citations juridiques. Des experts juridiques avertissent que les outils d'IA peuvent être utiles pour la réflexion, mais ne peuvent remplacer la recherche juridique traditionnelle ni les processus de vérification.
Alors que l'adoption de l'IA s'accélère dans les milieux professionnels, cet incident fait office de mise en garde quant aux limites de la technologie et à l'importance cruciale de la supervision humaine, particulièrement dans des environnements à enjeux élevés comme les salles d'audience, où l'exactitude et la crédibilité sont primordiales.