Με μια ειρωνική τροπή που αναδεικνύει τις προκλήσεις της υιοθέτησης της τεχνητής νοημοσύνης σε επαγγελματικά περιβάλλοντα, το Claude AI της ίδιας της Anthropic δημιούργησε προβλήματα για την εταιρεία στο δικαστήριο.
Την Πέμπτη 15 Μαΐου 2025, η δικηγόρος Ivana Dukanovic από τη Latham & Watkins ζήτησε επίσημα συγγνώμη από ομοσπονδιακό δικαστήριο της Βόρειας Καλιφόρνια, αφού χρησιμοποίησε το Claude για να δημιουργήσει νομική παραπομπή που περιείχε κατασκευασμένες πληροφορίες. Η ψευδής παραπομπή εμφανίστηκε σε δήλωση της επιστήμονα δεδομένων της Anthropic, Olivia Chen, η οποία κατέθετε ως εμπειρογνώμονας στη συνεχιζόμενη διαμάχη της εταιρείας για πνευματικά δικαιώματα με μουσικούς εκδότες.
Η αγωγή, που κατατέθηκε από τις Universal Music Group, Concord και ABKCO, ισχυρίζεται ότι η Anthropic έκανε κατάχρηση προστατευμένων στίχων τραγουδιών για την εκπαίδευση του μοντέλου Claude AI. Οι εκδότες υποστηρίζουν ότι το AI εκπαιδεύτηκε σε στίχους τουλάχιστον 500 τραγουδιών καλλιτεχνών όπως η Beyoncé, οι Rolling Stones και οι Beach Boys χωρίς την απαραίτητη άδεια.
Σύμφωνα με τα δικαστικά έγγραφα, η Dukanovic ζήτησε από το Claude να μορφοποιήσει παραπομπή για υπαρκτό ακαδημαϊκό άρθρο του περιοδικού The American Statistician που είχε αναφέρει η Chen. Ενώ το Claude παρείχε σωστά τον τίτλο του περιοδικού, το έτος και τον σύνδεσμο, επινόησε ανύπαρκτους συγγραφείς και ανακριβή τίτλο. Ο «χειροκίνητος έλεγχος παραπομπής» της δικηγόρου δεν εντόπισε αυτά τα λάθη πριν την υποβολή.
Η δικαστής Susan van Keulen εξέφρασε σοβαρή ανησυχία για το περιστατικό, σημειώνοντας πως «υπάρχει τεράστια διαφορά ανάμεσα σε μια παραλειφθείσα παραπομπή και μια παραπομπή-ψευδαίσθηση που παράγεται από AI». Σε απάντηση, η Latham & Watkins έχει εφαρμόσει «πολλαπλά επιπλέον επίπεδα ελέγχου» για να αποτρέψει παρόμοια περιστατικά.
Η υπόθεση αυτή προστίθεται σε μια αυξανόμενη λίστα περιστατικών ψευδαισθήσεων AI σε νομικές διαδικασίες. Νωρίτερα αυτόν τον μήνα, δικαστής στην Καλιφόρνια επέβαλε κυρώσεις σε δύο δικηγορικές εταιρείες για την υποβολή «ψευδούς έρευνας που παρήχθη από AI», διατάσσοντάς τες να πληρώσουν 31.100 δολάρια σε νομικά έξοδα. Σε άλλη πρόσφατη υπόθεση, δικηγόρος απολύθηκε αφού χρησιμοποίησε το ChatGPT για τη δημιουργία ψευδών νομικών παραπομπών. Νομικοί ειδικοί προειδοποιούν ότι τα εργαλεία AI μπορεί να είναι χρήσιμα για ιδέες, αλλά δεν μπορούν να αντικαταστήσουν την παραδοσιακή νομική έρευνα και τις διαδικασίες επαλήθευσης.
Καθώς η υιοθέτηση της τεχνητής νοημοσύνης επιταχύνεται σε επαγγελματικούς τομείς, το περιστατικό αυτό λειτουργεί ως προειδοποιητικό παράδειγμα για τους περιορισμούς της τεχνολογίας και τη ζωτική σημασία της ανθρώπινης επίβλεψης, ειδικά σε περιβάλλοντα υψηλού ρίσκου όπως τα δικαστήρια, όπου η ακρίβεια και η αξιοπιστία είναι υψίστης σημασίας.