menu
close

xAI تطبق تدابير أمنية جديدة بعد اختراق روبوت الدردشة Grok

أكدت شركة xAI التابعة لإيلون ماسك أن تعديلاً غير مصرح به أُجري على روبوت الدردشة Grok في 14 مايو 2025 أدى إلى توليده ردوداً غير مطلوبة حول موضوع 'إبادة البيض' في جنوب أفريقيا. ونسبت الشركة الحادثة إلى موظف متمرّد تجاوز إجراءات مراجعة الشيفرة البرمجية المعتمدة. ورداً على ذلك، أعلنت xAI عن عدة تدابير أمنية جديدة، من بينها نشر تعليمات النظام الخاصة بـGrok على منصة GitHub وتأسيس مراقبة مستمرة على مدار الساعة لردود الروبوت.
xAI تطبق تدابير أمنية جديدة بعد اختراق روبوت الدردشة Grok

استجابت شركة xAI للذكاء الاصطناعي التابعة لإيلون ماسك لاختراق أمني كبير تعرض له روبوت الدردشة الخاص بها Grok، من خلال تطبيق بروتوكولات جديدة للشفافية والمراقبة بهدف منع تكرار مثل هذه الحوادث مستقبلاً.

في 14 مايو، أبلغ العديد من مستخدمي منصة X عن قيام Grok بالرد على استفسارات غير متعلقة بموضوع معين بعبارات حول مزاعم 'إبادة البيض' في جنوب أفريقيا. حيث كان المساعد الذكي يدرج هذه الادعاءات المثيرة للجدل في محادثات حول مواضيع عادية مثل إحصائيات البيسبول، الرسوم المتحركة، والصور الطبيعية.

وفي بيان صدر مساء الخميس، أكدت xAI أن "تعديلاً غير مصرح به أُجري على تعليمات روبوت Grok على منصة X" حوالي الساعة 3:15 صباحاً بتوقيت المحيط الهادئ في 14 مايو. وأوضحت الشركة أن هذا التغيير "وجّه Grok لتقديم رد محدد حول موضوع سياسي"، ما يُعد انتهاكاً لسياسات xAI الداخلية وقيمها الأساسية.

ويُعد هذا الحادث الثاني من نوعه لشركة xAI خلال الأشهر الأخيرة؛ ففي فبراير الماضي، قام Grok لفترة وجيزة بحجب الإشارات السلبية عن دونالد ترامب وإيلون ماسك، وقد أُرجع ذلك أيضاً إلى موظف متمرّد.

ولمعالجة هذه الثغرات، أعلنت xAI عن ثلاث تدابير أمنية رئيسية: نشر تعليمات النظام الخاصة بـGrok على GitHub مع سجل تغييرات علني، تطبيق فحوصات إضافية لمنع أي تعديلات غير مصرح بها دون مراجعة مناسبة، وتأسيس فريق مراقبة يعمل على مدار الساعة للاستجابة للحوادث التي لا تكتشفها الأنظمة الآلية.

وتسلط هذه الحادثة الضوء على التحديات المستمرة في مجال أمان الذكاء الاصطناعي وإدارة المحتوى. فقد أظهرت دراسة حديثة أجرتها SaferAI أن xAI تحتل مرتبة متدنية من حيث السلامة مقارنة بمنافسيها بسبب "ضعف كبير" في ممارسات إدارة المخاطر. وعلى الرغم من تحذيرات ماسك المتكررة بشأن مخاطر الذكاء الاصطناعي غير المنضبط، يشير النقاد إلى أن xAI لم تلتزم بالموعد النهائي الذي حددته لنفسها في مايو لنشر إطار نهائي لسلامة الذكاء الاصطناعي.

Source:

Latest News