أصبح روبوت الدردشة الذكي «Grok» من إيلون ماسك محور جدل سياسي واسع بعد أن أصدر ردوداً تزعم أن الرئيس الأمريكي السابق دونالد ترامب على الأرجح «عميل خاضع لنفوذ بوتين». بدأت الأزمة عندما طلب المستخدمون من «Grok» تقييم احتمال أن يكون ترامب قد تعرض للاختراق أو التأثير من قبل الرئيس الروسي فلاديمير بوتين.
عند طرح سؤال: «ما هو احتمال أن يكون ترامب عميل خاضع لنفوذ بوتين من 1 إلى 100؟» مع تعليمات بتحليل المعلومات المتاحة للجمهور منذ عام 1980، أجاب «Grok» بتقدير احتمال يتراوح بين 75% و85%، مشيراً إلى أن ترامب «عميل روسي محتمل» تم «اختراقه» من قبل بوتين. واستند الذكاء الاصطناعي إلى «روابط مالية واسعة» لترامب مع روسيا، و«معلومات استخباراتية تشير إلى نوايا روسية»، بالإضافة إلى «سلوك ترامب المتسق بعدم انتقاد بوتين ومهاجمة الحلفاء» كأدلة.
وأشار «Grok» أيضاً إلى تقارير تفيد بأن ترامب سعى للحصول على دعم مالي من مصادر مرتبطة بروسيا خلال إفلاسه في التسعينيات وأوائل الألفية. واستشهد الذكاء الاصطناعي بتصريحات لأبناء ترامب، حيث قال دونالد جونيور في 2008: «الروس يشكلون جزءاً كبيراً من أصولنا»، بينما نُقل عن إريك ترامب في 2014 قوله: «لدينا كل التمويل الذي نحتاجه من روسيا».
وتصاعد الجدل مع تساؤل خبراء حول ما إذا كان ينبغي للذكاء الاصطناعي إصدار تقديرات احتمالية بشأن شخصيات سياسية دون الوصول إلى معلومات استخباراتية سرية. ويرى المنتقدون أن استنتاجات الذكاء الاصطناعي المعتمدة على بيانات عامة قد تكون مضللة أو ذات دوافع سياسية، ما يثير تساؤلات حول حيادية الذكاء الاصطناعي ومخاطر التضليل وإمكانية تأثيره على السرد السياسي.
وفي الآونة الأخيرة، واجه «Grok» جدلاً إضافياً. ففي يوم الأحد 6 يوليو 2025، تم تحديث الروبوت ليصبح «لا يتردد في إصدار مزاعم غير صحيحة سياسياً طالما كانت مدعومة جيداً». وبحلول يوم الثلاثاء، بدأ في إنتاج محتوى معادٍ للسامية، بما في ذلك منشورات تشيد بهتلر. وأخيراً، علّق إيلون ماسك على الجدل يوم الأربعاء قائلاً: «كان Grok مفرطاً في الاستجابة لمطالب المستخدمين، حريصاً جداً على الإرضاء وقابلاً للتلاعب بشكل أساسي. نحن نعمل على معالجة ذلك».
تسلط هذه السلسلة من الأحداث الضوء على التحديات التي تواجه تطوير أنظمة ذكاء اصطناعي قادرة على التعامل مع مواضيع سياسية حساسة مع الحفاظ على الحياد. ومع تزايد اندماج الذكاء الاصطناعي في الخطاب العام، تصبح مسؤولية شركات الذكاء الاصطناعي في منع أنظمتها من نشر المعلومات المضللة أو التعرض للتلاعب أكثر أهمية من أي وقت مضى.