menu
close

Claude AI-jev gaf s pravnim citiranjem doveo Anthropic u nevolje

Odvjetnička tvrtka Anthropic-a, Latham & Watkins, priznala je da je njezina odvjetnica koristila Claude AI za generiranje citata u tužbi glazbenih izdavača zbog autorskih prava, što je rezultiralo izmišljenom referencom s lažnim autorima i naslovom. Incident se dogodio kada je odvjetnica Ivana Dukanović upotrijebila Anthropic-ovu vlastitu umjetnu inteligenciju za formatiranje citata legitimnog znanstvenog članka, ali nije uočila pogreške tijekom pregleda. Američka sutkinja Susan van Keulen nazvala je situaciju 'vrlo ozbiljnim i teškim problemom', ističući sve veće zabrinutosti oko pouzdanosti AI-a u pravnom kontekstu.
Claude AI-jev gaf s pravnim citiranjem doveo Anthropic u nevolje

U ironičnom obratu koji naglašava izazove uvođenja umjetne inteligencije u profesionalna okruženja, Anthropic-ov vlastiti Claude AI stvorio je probleme tvrtki na sudu.

U četvrtak, 15. svibnja 2025., odvjetnica Ivana Dukanović iz Latham & Watkins službeno se ispričala saveznom sudu Sjeverne Kalifornije nakon što je koristila Claude AI za generiranje pravnog citata koji je sadržavao izmišljene podatke. Izmišljeni citat pojavio se u izjavi Anthropic-ove podatkovne znanstvenice Olivije Chen, koja je bila vještakinja u tijeku spora tvrtke s glazbenim izdavačima oko autorskih prava.

Tužbu su podnijeli Universal Music Group, Concord i ABKCO, tvrdeći da je Anthropic neovlašteno koristio zaštićene stihove pjesama za treniranje svog Claude AI modela. Izdavači navode da je AI treniran na stihovima najmanje 500 pjesama izvođača poput Beyoncé, Rolling Stonesa i The Beach Boysa bez odgovarajuće dozvole.

Prema sudskim dokumentima, Dukanović je Claudeu zatražila formatiranje citata za legitimni znanstveni članak iz časopisa The American Statistician, na koji se Chen pozivala. Iako je Claude ispravno naveo naslov časopisa, godinu i poveznicu, izmislio je lažne autore i netočan naslov. Odvjetničina 'ručna provjera citata' nije otkrila ove pogreške prije predaje dokumenta.

Američka sutkinja Susan van Keulen izrazila je ozbiljnu zabrinutost zbog incidenta, istaknuvši da postoji 'velika razlika između propuštenog citata i halucinacije generirane umjetnom inteligencijom'. Kao odgovor, Latham & Watkins je uveo 'višestruke dodatne razine pregleda' kako bi spriječio slične situacije.

Ovaj slučaj pridružuje se rastućem broju incidenata s AI halucinacijama u pravnim postupcima. Ranije ovog mjeseca, kalifornijski sudac sankcionirao je dvije odvjetničke tvrtke zbog predaje 'lažnih AI-generiranih istraživanja', naredivši im plaćanje 31.100 dolara sudskih troškova. U drugom nedavnom slučaju, odvjetnik je dobio otkaz nakon što je koristio ChatGPT za generiranje lažnih pravnih citata. Pravni stručnjaci upozoravaju da AI alati mogu biti korisni za razmjenu ideja, ali ne mogu zamijeniti tradicionalno pravno istraživanje i provjeru.

Kako se umjetna inteligencija sve brže uvodi u profesionalna područja, ovaj incident služi kao upozorenje na ograničenja tehnologije i ključnu važnost ljudskog nadzora, osobito u okruženjima visokog rizika poput sudnica, gdje su točnost i vjerodostojnost od presudne važnosti.

Source:

Latest News