تشهد صناعة الذكاء الاصطناعي انقسامًا ملحوظًا بين أبرز شركاتها حول كيفية التعامل مع المخاطر الوجودية المحتملة الناتجة عن الأنظمة الذكية فائقة القوة.
تُعد شركة Anthropic، التي تبلغ قيمتها 61 مليار دولار والمدعومة من أمازون، الأكثر حذرًا في هذا المجال، حيث تحذر باستمرار من أن قدرات الذكاء الاصطناعي غير المنضبطة قد تتجاوز إجراءات الأمان. وقد كان الرئيس التنفيذي، داريو أمودي، من أكثر الأصوات الداعية إلى التخطيط لأسوأ السيناريوهات، حيث صرّح مؤخرًا بأن النماذج "ستتفوق علينا قريبًا في معظم المجالات تقريبًا". وتشمل سياسة الشركة للتوسع المسؤول تدابير أمنية مادية مشددة مثل فحص المكاتب بحثًا عن أجهزة مخفية، بالإضافة إلى مجلس تنفيذي لتقييم المخاطر قبل إطلاق النماذج القوية.
أما شركة OpenAI، التي وصلت قيمتها مؤخرًا إلى 300 مليار دولار، فقد اتخذت مسارًا مختلفًا بالتركيز على مبادرات الشفافية. ففي مايو 2025، أطلقت الشركة مركز تقييمات السلامة، وهو منصة إلكترونية تعرض كيفية أداء نماذجها في اختبارات السلامة المختلفة، مثل توليد المحتوى الضار، واختراق القيود، والهلوسة. وتعهدت OpenAI بتحديث هذه المؤشرات بانتظام مع كل إصدار رئيسي جديد. إلا أن التحديثات الأخيرة لإطار الاستعداد أثارت بعض المخاوف، إذ أشارت الشركة إلى إمكانية "تعديل" متطلبات السلامة في حال أطلقت شركات منافسة أنظمة عالية الخطورة دون تطبيق ضوابط مماثلة.
من جانبها، اعتمدت Google DeepMind ما يبدو أنه النهج الأكثر منهجية، حيث نشرت في أبريل 2025 ورقة بحثية شاملة من 145 صفحة حول سلامة الذكاء الاصطناعي العام. ويصنف إطار عمل سلامة الأنظمة المتقدمة لدى الشركة المخاطر إلى أربعة مجالات: سوء الاستخدام، والانحراف عن الأهداف، والحوادث، والمخاطر الهيكلية. ويركز نهج DeepMind على التقدم التدريجي مع تطبيق بروتوكولات تدريب ومراقبة وأمان قوية. كما أنشأت الشركة مجلس سلامة الذكاء الاصطناعي العام بقيادة الشريك المؤسس شين ليج، وتتعاون مع منظمات غير ربحية متخصصة في أبحاث سلامة الذكاء الاصطناعي مثل Apollo وRedwood Research.
تعكس هذه الاستراتيجيات المتباينة التوتر الجوهري في قطاع الذكاء الاصطناعي بين تطوير القدرات بسرعة وتطبيق ضوابط أمان فعالة. ومع اقتراب الأنظمة الذكية من تحقيق أداء بمستوى الإنسان في مجالات متعددة، تزداد الحاجة إلى كيان موحد عبر القطاع مدعوم بمعايير شفافة.
ويحذر الخبراء من أنه بدون معايير سلامة منسقة، قد يدفع الضغط التنافسي الشركات إلى إطلاق نماذج متقدمة بسرعة على حساب إجراءات الأمان. كما أشار جاك كلارك من Anthropic، فإن القطاع بحاجة إلى آليات أقوى "لتحديد المخاطر والتخفيف منها، ودفع تطوير الذكاء الاصطناعي المسؤول" قبل أن تنتشر هذه الأنظمة القوية على نطاق واسع.