menu
close

إيطاليا تستهدف DeepSeek في تحقيق حول هلوسة الذكاء الاصطناعي

أطلقت هيئة حماية المنافسة الإيطالية (AGCM) تحقيقًا مع شركة الذكاء الاصطناعي الصينية DeepSeek بسبب مزاعم بعدم تحذير المستخدمين بشكل كافٍ من مخاطر هلوسة الذكاء الاصطناعي. وتدعي الهيئة أن DeepSeek لم تقدم تحذيرات واضحة وكافية بشأن إمكانية قيام الذكاء الاصطناعي بتوليد معلومات غير دقيقة أو مضللة. يأتي ذلك بعد إجراء سابق في فبراير حيث حظرت هيئة حماية البيانات الإيطالية روبوت الدردشة الخاص بـ DeepSeek بسبب مخاوف تتعلق بالخصوصية.
إيطاليا تستهدف DeepSeek في تحقيق حول هلوسة الذكاء الاصطناعي

أعلنت هيئة حماية المنافسة الإيطالية (AGCM) يوم الاثنين عن فتح تحقيق رسمي مع شركة الذكاء الاصطناعي الصينية DeepSeek، في خطوة تنظيمية بارزة تستهدف ظاهرة هلوسة الذكاء الاصطناعي.

يركز التحقيق على مزاعم بأن DeepSeek لم تقدم للمستخدمين تحذيرات "واضحة وفورية ومفهومة بشكل كافٍ" بشأن مخاطر هلوسة الذكاء الاصطناعي في محتواها. وعرّفت الهيئة هذه الهلوسات بأنها "حالات يقوم فيها نموذج الذكاء الاصطناعي، استجابةً لإدخال معين من المستخدم، بإنتاج مخرجات تحتوي على معلومات غير دقيقة أو مضللة أو مختلقة".

ويُعد هذا التحقيق من أوائل الإجراءات التنظيمية الكبرى التي تستهدف بشكل خاص هلوسة الذكاء الاصطناعي، وهي قضية متزايدة مع انتشار أنظمة الذكاء الاصطناعي التوليدي. ويأتي هذا في ظل تزايد التدقيق العالمي حول شفافية الذكاء الاصطناعي ومخاطر المعلومات المضللة، حيث يعمل المنظمون حول العالم على تطوير أطر عمل لمواجهة هذه التحديات.

تأسست DeepSeek في أواخر عام 2023 على يد مدير صندوق التحوط الصيني ليانغ وينفنغ، وبرزت بسرعة كلاعب رئيسي في مشهد الذكاء الاصطناعي العالمي. وحظيت الشركة باهتمام دولي في وقت سابق من هذا العام عندما أطلقت نماذج ذكاء اصطناعي قيل إنها تضاهي قدرات أبرز المنافسين الغربيين وبتكلفة أقل بكثير، مما تسبب في تقلبات في سوق التقنية.

وليس هذا أول احتكاك بين DeepSeek والجهات التنظيمية الإيطالية؛ ففي فبراير 2025، أمرت هيئة حماية البيانات الإيطالية الشركة بحظر الوصول إلى روبوت الدردشة الخاص بها بعد فشل DeepSeek في معالجة مخاوف تتعلق بسياسة الخصوصية. وذكرت تقارير حينها أن DeepSeek ادعت أنها لا تعمل في إيطاليا وأن اللوائح الأوروبية لا تنطبق على عملياتها.

ومع بدء تطبيق قانون الذكاء الاصطناعي الأوروبي (EU AI Act) بشكل تدريجي خلال عام 2025، ودخول متطلبات الشفافية الخاصة بأنظمة الذكاء الاصطناعي العامة حيز التنفيذ في 2 أغسطس، قد يشكل هذا التحقيق سابقة مهمة لكيفية تعامل الجهات التنظيمية الأوروبية مع قضايا هلوسة الذكاء الاصطناعي ضمن الإطار التنظيمي الجديد.

Source: Reuters

Latest News