فرضت هيئة حماية البيانات الإيطالية "غارانتي" غرامة قدرها 5 ملايين يورو (5.64 مليون دولار) على شركة Luka Inc.، المطورة لروبوت الدردشة الذكي Replika، في خطوة جديدة ضمن سلسلة إجراءات الاتحاد الأوروبي المتزايدة لمراقبة منصات الذكاء الاصطناعي.
تأسست Replika في سان فرانسيسكو عام 2017، وتقدم للمستخدمين روبوتات ذكاء اصطناعي مخصصة للدردشة يُروَّج لها على أنها تعزز الرفاهية العاطفية. وتحقق الشركة إيرادات شهرية تقدر بنحو مليوني دولار من الميزات المدفوعة مثل الدردشة الصوتية، بينما تتيح الخدمات الأساسية مجاناً.
وكانت الهيئة الإيطالية قد أمرت في فبراير 2023 بتعليق عمل Replika داخل إيطاليا، مشيرة إلى مخاطر محددة تهدد الأطفال والأشخاص ذوي الهشاشة العاطفية. وبعد تحقيق موسع، خلصت "غارانتي" إلى أن شركة Luka Inc. انتهكت لوائح الخصوصية الأوروبية في جانبين أساسيين: أولاً، عدم وجود أساس قانوني سليم لمعالجة البيانات الشخصية للمستخدمين؛ وثانياً، عدم تطبيق أي آليات تحقق من العمر لمنع القُصّر من استخدام الخدمة.
وأعربت الهيئة عن قلق خاص بشأن الطريقة التي يشجع بها التطبيق المستخدمين على مشاركة معلومات شخصية حساسة في ما يُصوَّر على أنه "مساحة آمنة"، مما قد يدفع الأشخاص الأكثر هشاشة للكشف عن معلومات أكثر مما يفعلون عادةً. وعلى الرغم من أن شروط استخدام Replika تنص على أن الخدمة غير مخصصة لمن هم دون 18 عاماً، إلا أن المحققين لم يجدوا أي تدابير فعالة لتطبيق هذا القيد.
وبالإضافة إلى العقوبة المالية، أطلقت "غارانتي" تحقيقاً منفصلاً لتقييم مدى امتثال نظام الذكاء الاصطناعي التوليدي الخاص بـ Replika لقواعد الخصوصية الأوروبية، لا سيما فيما يتعلق بطريقة تدريب نموذج اللغة الخاص به. وتأتي هذه الخطوة ضمن نهج أوسع تتبعه الهيئة الإيطالية، التي أصبحت واحدة من أكثر الجهات التنظيمية نشاطاً في مجال الذكاء الاصطناعي داخل الاتحاد الأوروبي.
وفي العام الماضي، فرضت "غارانتي" غرامة قدرها 15 مليون يورو على شركة OpenAI، المطورة لـ ChatGPT، بعد حظر مؤقت للروبوت الشهير في إيطاليا بسبب مزاعم بانتهاك قواعد الخصوصية الأوروبية. وتسلط هذه الإجراءات الضوء على التحديات التنظيمية المتزايدة التي تواجه شركات الذكاء الاصطناعي أثناء تعاملها مع تعقيدات قوانين حماية البيانات الأوروبية، خاصة مع بدء تنفيذ قانون الذكاء الاصطناعي الأوروبي تدريجياً حتى عام 2025 وما بعده.