أعلنت هيئة حماية المنافسة الإيطالية (AGCM) يوم الاثنين عن فتح تحقيق رسمي مع شركة الذكاء الاصطناعي الصينية DeepSeek، في خطوة تنظيمية بارزة تستهدف ظاهرة هلوسة الذكاء الاصطناعي.
يركز التحقيق على مزاعم بأن DeepSeek لم تقدم للمستخدمين تحذيرات "واضحة وفورية ومفهومة بشكل كافٍ" بشأن مخاطر هلوسة الذكاء الاصطناعي في محتواها. وعرّفت الهيئة هذه الهلوسات بأنها "حالات يقوم فيها نموذج الذكاء الاصطناعي، استجابةً لإدخال معين من المستخدم، بإنتاج مخرجات تحتوي على معلومات غير دقيقة أو مضللة أو مختلقة".
ويُعد هذا التحقيق من أوائل الإجراءات التنظيمية الكبرى التي تستهدف بشكل خاص هلوسة الذكاء الاصطناعي، وهي قضية متزايدة مع انتشار أنظمة الذكاء الاصطناعي التوليدي. ويأتي هذا في ظل تزايد التدقيق العالمي حول شفافية الذكاء الاصطناعي ومخاطر المعلومات المضللة، حيث يعمل المنظمون حول العالم على تطوير أطر عمل لمواجهة هذه التحديات.
تأسست DeepSeek في أواخر عام 2023 على يد مدير صندوق التحوط الصيني ليانغ وينفنغ، وبرزت بسرعة كلاعب رئيسي في مشهد الذكاء الاصطناعي العالمي. وحظيت الشركة باهتمام دولي في وقت سابق من هذا العام عندما أطلقت نماذج ذكاء اصطناعي قيل إنها تضاهي قدرات أبرز المنافسين الغربيين وبتكلفة أقل بكثير، مما تسبب في تقلبات في سوق التقنية.
وليس هذا أول احتكاك بين DeepSeek والجهات التنظيمية الإيطالية؛ ففي فبراير 2025، أمرت هيئة حماية البيانات الإيطالية الشركة بحظر الوصول إلى روبوت الدردشة الخاص بها بعد فشل DeepSeek في معالجة مخاوف تتعلق بسياسة الخصوصية. وذكرت تقارير حينها أن DeepSeek ادعت أنها لا تعمل في إيطاليا وأن اللوائح الأوروبية لا تنطبق على عملياتها.
ومع بدء تطبيق قانون الذكاء الاصطناعي الأوروبي (EU AI Act) بشكل تدريجي خلال عام 2025، ودخول متطلبات الشفافية الخاصة بأنظمة الذكاء الاصطناعي العامة حيز التنفيذ في 2 أغسطس، قد يشكل هذا التحقيق سابقة مهمة لكيفية تعامل الجهات التنظيمية الأوروبية مع قضايا هلوسة الذكاء الاصطناعي ضمن الإطار التنظيمي الجديد.