Într-o întorsătură ironică ce evidențiază provocările adoptării inteligenței artificiale în mediile profesionale, propriul Claude AI al companiei Anthropic a creat probleme pentru aceasta în instanță.
Joi, 15 mai 2025, avocata Ivana Dukanovic de la Latham & Watkins și-a cerut scuze oficial în fața unei instanțe federale din nordul Californiei, după ce a folosit Claude pentru a genera o citare juridică ce conținea informații fabricate. Citarea halucinată a apărut într-o declarație a Oliviei Chen, data scientist la Anthropic, care a servit drept martor expert în procesul în curs al companiei cu editorii muzicali pe tema drepturilor de autor.
Procesul, intentat de Universal Music Group, Concord și ABKCO, acuză Anthropic că a folosit în mod abuziv versuri protejate de drepturi de autor pentru a antrena modelul său Claude AI. Editorii susțin că AI-ul a fost antrenat pe versuri din cel puțin 500 de melodii ale unor artiști precum Beyoncé, The Rolling Stones și The Beach Boys, fără autorizare corespunzătoare.
Potrivit documentelor depuse la dosar, Dukanovic i-a cerut lui Claude să formateze o citare pentru un articol legitim din revista The American Statistician, la care făcuse referire Chen. Deși Claude a furnizat corect titlul publicației, anul și linkul, a inventat autori falși și un titlu incorect. „Verificarea manuală a citării” realizată de avocată nu a identificat aceste erori înainte de depunerea documentului.
Judecătoarea americană Susan van Keulen și-a exprimat îngrijorarea serioasă cu privire la incident, subliniind că „există o diferență uriașă între o citare omisă și o halucinație generată de AI”. În replică, Latham & Watkins a implementat „mai multe niveluri suplimentare de verificare” pentru a preveni situații similare.
Acest caz se alătură unei liste tot mai lungi de incidente de halucinații AI în procese juridice. La începutul acestei luni, un judecător din California a sancționat două firme de avocatură pentru depunerea unor „cercetări false generate de AI”, obligându-le să plătească 31.100 de dolari cheltuieli de judecată. Într-un alt caz recent, un avocat a fost concediat după ce a folosit ChatGPT pentru a genera citări juridice false. Experții juridici avertizează că instrumentele AI pot fi utile pentru brainstorming, dar nu pot înlocui cercetarea și verificarea tradițională în domeniul juridic.
Pe măsură ce adoptarea AI se accelerează în domeniile profesionale, acest incident servește drept avertisment cu privire la limitările tehnologiei și la importanța critică a supravegherii umane, în special în medii cu mize ridicate precum sălile de judecată, unde acuratețea și credibilitatea sunt esențiale.