menu
close

خطأ كلود AI في الاستشهادات القانونية يوقع شركة Anthropic في مأزق قانوني

أقرت شركة المحاماة Latham & Watkins، الممثلة لشركة Anthropic، بأن أحد محاميها استخدم كلود AI لإنشاء استشهاد في دعوى حقوق نشر أقامها ناشرو موسيقى، مما أدى إلى ظهور مرجع وهمي بأسماء مؤلفين وعنوان غير حقيقيين. وقع الحادث عندما استخدمت المحامية إيفانا دوكانوفيتش الذكاء الاصطناعي الخاص بـ Anthropic لتنسيق استشهاد لمقال أكاديمي حقيقي، لكنها لم تكتشف الأخطاء أثناء المراجعة. ووصفت القاضية الأمريكية سوزان فان كولين الموقف بأنه "مسألة خطيرة وجسيمة"، مما يسلط الضوء على تزايد المخاوف بشأن موثوقية الذكاء الاصطناعي في السياقات القانونية.
خطأ كلود AI في الاستشهادات القانونية يوقع شركة Anthropic في مأزق قانوني

في مفارقة تسلط الضوء على تحديات تبني الذكاء الاصطناعي في البيئات المهنية، تسبب كلود AI التابع لشركة Anthropic في مشاكل قانونية للشركة نفسها داخل المحكمة.

في يوم الخميس، 15 مايو 2025، قدمت المحامية إيفانا دوكانوفيتش من شركة Latham & Watkins اعتذاراً رسمياً لمحكمة فيدرالية في شمال كاليفورنيا بعد استخدامها كلود لإنشاء استشهاد قانوني تضمن معلومات ملفقة. ظهر الاستشهاد الوهمي في إفادة قدمتها عالمة البيانات في Anthropic، أوليفيا تشين، والتي كانت تؤدي دور الشاهد الخبير في معركة حقوق النشر المستمرة بين الشركة وناشري الموسيقى.

الدعوى، التي رفعتها شركات Universal Music Group وConcord وABKCO، تتهم شركة Anthropic بإساءة استخدام كلمات الأغاني المحمية بحقوق النشر لتدريب نموذج كلود AI الخاص بها. ويدعي الناشرون أن الذكاء الاصطناعي تم تدريبه على كلمات ما لا يقل عن 500 أغنية لفنانين من بينهم بيونسيه، ورولينج ستونز، وذا بيتش بويز، دون الحصول على إذن مناسب.

وبحسب وثائق المحكمة، طلبت دوكانوفيتش من كلود تنسيق استشهاد لمقال أكاديمي حقيقي من مجلة The American Statistician والذي أشارت إليه تشين. ورغم أن كلود قدم عنوان المجلة، وسنة النشر، والرابط بشكل صحيح، إلا أنه اخترع أسماء مؤلفين غير حقيقيين وعنواناً غير دقيق. ولم تكتشف المحامية هذه الأخطاء أثناء مراجعتها اليدوية للاستشهاد قبل تقديمه.

وأعربت القاضية الأمريكية سوزان فان كولين عن قلقها الشديد من الحادثة، مشيرة إلى أن هناك "فرقاً شاسعاً بين استشهاد مفقود واستشهاد وهمي يولده الذكاء الاصطناعي". ورداً على ذلك، قامت شركة Latham & Watkins بتطبيق "مستويات متعددة من المراجعة الإضافية" لمنع تكرار مثل هذه الحوادث.

وتنضم هذه القضية إلى قائمة متزايدة من حوادث "هلوسة الذكاء الاصطناعي" في الإجراءات القانونية. ففي وقت سابق من هذا الشهر، فرض قاضٍ في كاليفورنيا عقوبات على شركتي محاماة لتقديمهما "أبحاثاً قانونية زائفة أنشأها الذكاء الاصطناعي"، وأمرهما بدفع 31,100 دولار كرسوم قانونية. وفي حادثة أخرى حديثة، تم فصل محامٍ بعد استخدامه ChatGPT لإنشاء استشهادات قانونية وهمية. ويحذر خبراء القانون من أن أدوات الذكاء الاصطناعي قد تكون مفيدة في العصف الذهني، لكنها لا يمكن أن تحل محل عمليات البحث القانوني التقليدية والتحقق اليدوي.

ومع تسارع اعتماد الذكاء الاصطناعي في مختلف المجالات المهنية، تأتي هذه الحادثة كدرس تحذيري حول حدود هذه التقنية وأهمية الإشراف البشري، خاصة في البيئات الحساسة مثل قاعات المحاكم حيث الدقة والمصداقية أمران أساسيان.

Source:

Latest News