menu
close

إيطاليا تستهدف DeepSeek في تحقيق حول هلوسة الذكاء الاصطناعي

أطلقت هيئة حماية المنافسة الإيطالية AGCM تحقيقاً في شركة الذكاء الاصطناعي الصينية DeepSeek بزعم عدم تحذير المستخدمين بشكل كافٍ من مخاطر هلوسة الذكاء الاصطناعي. وتدعي الهيئة أن DeepSeek لم تقدم تحذيرات واضحة وكافية بشأن احتمال أن ينتج الذكاء الاصطناعي معلومات غير دقيقة أو مضللة. ويأتي ذلك بعد إجراء سابق في فبراير حيث حظرت هيئة حماية البيانات الإيطالية روبوت الدردشة الخاص بـ DeepSeek بسبب مخاوف تتعلق بالخصوصية.
إيطاليا تستهدف DeepSeek في تحقيق حول هلوسة الذكاء الاصطناعي

أعلنت هيئة حماية المنافسة الإيطالية AGCM يوم الاثنين عن فتح تحقيق رسمي في شركة الذكاء الاصطناعي الصينية DeepSeek، في خطوة تنظيمية بارزة تستهدف ظاهرة هلوسة الذكاء الاصطناعي.

يركز التحقيق على مزاعم بأن DeepSeek لم تقدم للمستخدمين تحذيرات "واضحة وفورية ومفهومة بشكل كافٍ" حول مخاطر هلوسة الذكاء الاصطناعي في محتواها. وعرّفت AGCM هذه الهلوسة بأنها "حالات يقوم فيها نموذج الذكاء الاصطناعي، استجابةً لإدخال معين من المستخدم، بإنتاج مخرجات تحتوي على معلومات غير دقيقة أو مضللة أو مختلقة".

ويمثل هذا التحقيق أحد أولى الإجراءات التنظيمية الكبرى التي تستهدف بشكل خاص هلوسة الذكاء الاصطناعي، وهي قضية متنامية مع انتشار أنظمة الذكاء الاصطناعي التوليدي. ويأتي التحقيق في ظل تزايد التدقيق العالمي حول شفافية الذكاء الاصطناعي ومخاطر المعلومات المضللة، حيث تعمل الجهات التنظيمية حول العالم على تطوير أطر لمعالجة هذه التحديات.

تأسست DeepSeek في أواخر عام 2023 على يد مدير صندوق التحوط الصيني ليانغ وينفنغ، وبرزت بسرعة كلاعب مهم في مشهد الذكاء الاصطناعي العالمي. وقد حظيت الشركة باهتمام دولي في وقت سابق من هذا العام عندما أطلقت نماذج ذكاء اصطناعي قيل إنها تضاهي قدرات أبرز المنافسين الغربيين وبتكلفة أقل بكثير، مما أدى إلى تقلبات في سوق التكنولوجيا.

وليس هذا أول احتكاك بين DeepSeek والجهات التنظيمية الإيطالية. ففي فبراير 2025، أمرت هيئة حماية البيانات الإيطالية الشركة بحجب الوصول إلى روبوت الدردشة الخاص بها بعد أن فشلت DeepSeek في معالجة مخاوف تتعلق بسياسة الخصوصية. وفي ذلك الوقت، أفادت تقارير أن DeepSeek ادعت أنها لا تعمل في إيطاليا وأن اللوائح الأوروبية لا تنطبق على عملياتها.

ومع بدء تنفيذ قانون الذكاء الاصطناعي الأوروبي تدريجياً خلال عام 2025، ودخول متطلبات الشفافية الخاصة بأنظمة الذكاء الاصطناعي العامة حيز التنفيذ في 2 أغسطس، قد يشكل هذا التحقيق سابقة مهمة لكيفية تعامل الجهات التنظيمية الأوروبية مع قضايا هلوسة الذكاء الاصطناعي بموجب الإطار التنظيمي الجديد.

Source: Reuters

Latest News