En un giro irónico que pone de manifiesto los retos de la adopción de la inteligencia artificial en entornos profesionales, la propia Claude AI de Anthropic ha causado problemas a la empresa en los tribunales.
El jueves 15 de mayo de 2025, la abogada Ivana Dukanovic, del bufete Latham & Watkins, presentó formalmente sus disculpas ante un tribunal federal del norte de California tras utilizar Claude para generar una cita legal que contenía información inventada. La cita errónea apareció en una declaración de Olivia Chen, científica de datos de Anthropic, que actuaba como perito en la batalla legal por derechos de autor que enfrenta a la compañía con varias editoriales musicales.
La demanda, presentada por Universal Music Group, Concord y ABKCO, acusa a Anthropic de haber utilizado letras de canciones protegidas por derechos de autor para entrenar su modelo Claude AI. Las editoriales alegan que la IA fue entrenada con letras de al menos 500 canciones de artistas como Beyoncé, los Rolling Stones y The Beach Boys sin la debida autorización.
Según los documentos judiciales, Dukanovic pidió a Claude que diera formato a la cita de un artículo académico legítimo de la revista The American Statistician al que Chen había hecho referencia. Aunque Claude proporcionó correctamente el nombre de la publicación, el año y el enlace, inventó autores falsos y un título incorrecto. La 'revisión manual de la cita' por parte de la abogada no detectó estos errores antes de la presentación oficial.
La jueza magistrada estadounidense Susan van Keulen expresó su seria preocupación por el incidente, señalando que 'hay un mundo de diferencia entre una cita omitida y una alucinación generada por IA'. Como respuesta, Latham & Watkins ha implementado 'múltiples niveles de revisión adicional' para evitar que se repitan situaciones similares.
Este caso se suma a una creciente lista de incidentes de alucinaciones de IA en procedimientos legales. A principios de este mes, un juez de California sancionó a dos bufetes por presentar 'investigaciones falsas generadas por IA', ordenándoles pagar 31.100 dólares en costas judiciales. En otro caso reciente, un abogado fue despedido tras utilizar ChatGPT para generar citas legales inventadas. Expertos jurídicos advierten que las herramientas de IA pueden ser útiles para la lluvia de ideas, pero no pueden sustituir los procesos tradicionales de investigación y verificación legal.
A medida que la adopción de la IA se acelera en los ámbitos profesionales, este incidente sirve como advertencia sobre las limitaciones de la tecnología y la importancia crítica de la supervisión humana, especialmente en entornos de alto riesgo como los tribunales, donde la precisión y la credibilidad son fundamentales.