Dans un retournement de situation ironique qui met en lumière les défis de l’adoption de l’IA dans les milieux professionnels, la propre IA d’Anthropic, Claude, a causé des ennuis à l’entreprise devant la justice.
Le jeudi 15 mai 2025, l’avocate Ivana Dukanovic du cabinet Latham & Watkins a présenté des excuses officielles devant un tribunal fédéral du nord de la Californie après avoir utilisé Claude pour générer une citation juridique contenant des informations inventées. La citation hallucinée figurait dans une déclaration de la data scientist d’Anthropic, Olivia Chen, qui intervenait en tant qu’experte dans le cadre du litige en cours de l’entreprise contre des éditeurs de musique pour violation de droits d’auteur.
La plainte, déposée par Universal Music Group, Concord et ABKCO, accuse Anthropic d’avoir utilisé illégalement des paroles de chansons protégées par le droit d’auteur pour entraîner son modèle Claude AI. Les éditeurs affirment que l’IA a été entraînée sur les paroles d’au moins 500 chansons d’artistes tels que Beyoncé, les Rolling Stones et les Beach Boys, sans autorisation adéquate.
Selon les documents judiciaires, Dukanovic avait demandé à Claude de mettre en forme une citation pour un véritable article scientifique publié dans The American Statistician et cité par Chen. Si Claude a bien fourni le titre de la publication, l’année et le lien corrects, il a en revanche inventé de faux auteurs et un titre erroné. Le « contrôle manuel de la citation » effectué par l’avocate n’a pas permis de détecter ces erreurs avant le dépôt du document.
La juge américaine Susan van Keulen s’est dite très préoccupée par l’incident, soulignant qu’« il y a un monde de différence entre une citation manquante et une hallucination générée par l’IA ». En réponse, Latham & Watkins a mis en place « plusieurs niveaux de vérification supplémentaires » pour éviter que de tels incidents ne se reproduisent.
Cette affaire s’ajoute à la liste croissante d’incidents d’hallucinations de l’IA dans les procédures judiciaires. Plus tôt ce mois-ci, un juge californien a sanctionné deux cabinets d’avocats pour avoir soumis des « recherches juridiques fictives générées par l’IA », leur ordonnant de payer 31 100 dollars de frais de justice. Dans une autre affaire récente, un avocat a été licencié après avoir utilisé ChatGPT pour générer de fausses citations juridiques. Des experts juridiques mettent en garde : si les outils d’IA peuvent être utiles pour le brainstorming, ils ne sauraient remplacer la recherche juridique traditionnelle ni les processus de vérification.
Alors que l’adoption de l’IA s’accélère dans les milieux professionnels, cet incident fait office de mise en garde sur les limites de la technologie et l’importance cruciale de la supervision humaine, en particulier dans des environnements à forts enjeux comme les tribunaux où l’exactitude et la crédibilité sont primordiales.