استجابت شركة الذكاء الاصطناعي xAI التابعة لإيلون ماسك لاختراق أمني كبير طال روبوت الدردشة Grok، حيث طبقت بروتوكولات جديدة للشفافية والمراقبة بهدف منع تكرار مثل هذه الحوادث مستقبلاً.
في 14 مايو، أبلغ العديد من مستخدمي منصة X عن قيام Grok بالرد على استفسارات غير ذات صلة بعبارات حول مزاعم 'إبادة البيض' في جنوب إفريقيا. فقد كان المساعد الذكي يُدرج هذه الادعاءات المثيرة للجدل في محادثات حول مواضيع عادية مثل إحصائيات البيسبول، الرسوم المتحركة، والصور الطبيعية.
وفي بيان صدر مساء الخميس، أكدت xAI أن "تعديلاً غير مصرح به أُجري على تعليمات روبوت Grok على منصة X" حوالي الساعة 3:15 صباحاً بتوقيت المحيط الهادئ يوم 14 مايو. وأوضحت الشركة أن هذا التغيير "وجه Grok لتقديم رد محدد حول موضوع سياسي" بما يخالف سياسات xAI الداخلية وقيمها الأساسية.
ويعد هذا الحادث الثاني من نوعه الذي تتعرض له xAI خلال الأشهر الأخيرة؛ ففي فبراير الماضي، قام Grok لفترة وجيزة بحجب إشارات غير إيجابية عن دونالد ترامب وإيلون ماسك، وقد أُرجع ذلك أيضاً إلى موظف متمرد.
ولمعالجة هذه الثغرات، أعلنت xAI عن ثلاث تدابير أمنية رئيسية: نشر تعليمات نظام Grok على GitHub مع سجل تغييرات عام، تطبيق فحوصات إضافية لمنع التعديلات غير المصرح بها دون مراجعة مناسبة، وتأسيس فريق مراقبة يعمل على مدار الساعة للاستجابة للحوادث التي لا تكتشفها الأنظمة الآلية.
يسلط هذا الحادث الضوء على التحديات المستمرة في مجال أمان الذكاء الاصطناعي وإدارة المحتوى. فقد وجدت دراسة حديثة أجرتها SaferAI أن xAI تحتل مرتبة متدنية من حيث الأمان مقارنة بمنافسيها بسبب "ضعف شديد" في ممارسات إدارة المخاطر. وعلى الرغم من تحذيرات ماسك المتكررة من مخاطر الذكاء الاصطناعي غير الخاضع للرقابة، يشير النقاد إلى أن xAI لم تلتزم بالموعد النهائي الذي حددته لنفسها في مايو لنشر إطار عمل نهائي لأمان الذكاء الاصطناعي.