En un giro irónico que pone de manifiesto los retos de adoptar la inteligencia artificial en entornos profesionales, la propia Claude AI de Anthropic ha causado problemas legales a la compañía.
El jueves 15 de mayo de 2025, la abogada Ivana Dukanovic, del despacho Latham & Watkins, se disculpó formalmente ante un tribunal federal del norte de California tras utilizar Claude para generar una cita legal que contenía información fabricada. La cita inventada apareció en una declaración de Olivia Chen, científica de datos de Anthropic, quien fungía como testigo experta en la batalla legal por derechos de autor que enfrenta la empresa contra editoras musicales.
La demanda, presentada por Universal Music Group, Concord y ABKCO, alega que Anthropic hizo un uso indebido de letras de canciones protegidas por derechos de autor para entrenar su modelo Claude AI. Las editoras afirman que la IA fue entrenada con letras de al menos 500 canciones de artistas como Beyoncé, The Rolling Stones y The Beach Boys, sin la debida autorización.
Según documentos judiciales, Dukanovic pidió a Claude que diera formato a una cita de un artículo legítimo de la revista The American Statistician al que Chen había hecho referencia. Aunque Claude proporcionó correctamente el nombre de la publicación, el año y el enlace, inventó autores falsos y un título incorrecto. La revisión manual de la cita por parte de la abogada no detectó estos errores antes de su presentación.
La jueza magistrada Susan van Keulen expresó seria preocupación por el incidente, señalando que 'hay un mundo de diferencia entre una cita omitida y una alucinación generada por IA'. En respuesta, Latham & Watkins implementó 'múltiples niveles de revisión adicional' para evitar que ocurran situaciones similares.
Este caso se suma a una creciente lista de incidentes de alucinaciones de IA en procedimientos legales. A principios de este mes, un juez de California sancionó a dos despachos por presentar 'investigaciones falsas generadas por IA', ordenándoles pagar 31,100 dólares en honorarios legales. En otro caso reciente, un abogado fue despedido tras utilizar ChatGPT para generar citas legales falsas. Expertos legales advierten que las herramientas de IA pueden ser útiles para la lluvia de ideas, pero no pueden sustituir la investigación y verificación jurídica tradicional.
A medida que la adopción de la IA se acelera en campos profesionales, este incidente sirve como advertencia sobre las limitaciones de la tecnología y la importancia crítica de la supervisión humana, especialmente en entornos de alto riesgo como los tribunales, donde la precisión y la credibilidad son fundamentales.