menu
close

عمالقة الذكاء الاصطناعي يختلفون حول استراتيجيات إدارة المخاطر الوجودية

تتبنى كبرى شركات الذكاء الاصطناعي نهجًا متباينًا في إدارة المخاطر الوجودية التي تفرضها الأنظمة المتقدمة. تدعو شركة Anthropic إلى التخطيط لأسوأ السيناريوهات، بينما تركز OpenAI على مبادرات الشفافية من خلال مركز تقييمات السلامة الجديد. أما Google DeepMind فقد اعتمدت نهجًا أكثر منهجية وتدرجًا عبر إطار عمل شامل لسلامة الأنظمة المتقدمة. وتبرز هذه الاختلافات الاستراتيجية التوتر القائم بين التسارع في تطوير الذكاء الاصطناعي وضرورة تطبيق ضوابط أمان قوية.
عمالقة الذكاء الاصطناعي يختلفون حول استراتيجيات إدارة المخاطر الوجودية

تشهد صناعة الذكاء الاصطناعي انقسامًا ملحوظًا بين أبرز شركاتها حول كيفية التعامل مع المخاطر الوجودية المحتملة الناتجة عن الأنظمة الذكية فائقة القوة.

تُعد شركة Anthropic، التي تبلغ قيمتها 61 مليار دولار والمدعومة من أمازون، الأكثر حذرًا في هذا المجال، حيث تحذر باستمرار من أن قدرات الذكاء الاصطناعي غير المنضبطة قد تتجاوز إجراءات الأمان. وقد كان الرئيس التنفيذي، داريو أمودي، من أكثر الأصوات الداعية إلى التخطيط لأسوأ السيناريوهات، حيث صرّح مؤخرًا بأن النماذج "ستتفوق علينا قريبًا في معظم المجالات تقريبًا". وتشمل سياسة الشركة للتوسع المسؤول تدابير أمنية مادية مشددة مثل فحص المكاتب بحثًا عن أجهزة مخفية، بالإضافة إلى مجلس تنفيذي لتقييم المخاطر قبل إطلاق النماذج القوية.

أما شركة OpenAI، التي وصلت قيمتها مؤخرًا إلى 300 مليار دولار، فقد اتخذت مسارًا مختلفًا بالتركيز على مبادرات الشفافية. ففي مايو 2025، أطلقت الشركة مركز تقييمات السلامة، وهو منصة إلكترونية تعرض كيفية أداء نماذجها في اختبارات السلامة المختلفة، مثل توليد المحتوى الضار، واختراق القيود، والهلوسة. وتعهدت OpenAI بتحديث هذه المؤشرات بانتظام مع كل إصدار رئيسي جديد. إلا أن التحديثات الأخيرة لإطار الاستعداد أثارت بعض المخاوف، إذ أشارت الشركة إلى إمكانية "تعديل" متطلبات السلامة في حال أطلقت شركات منافسة أنظمة عالية الخطورة دون تطبيق ضوابط مماثلة.

من جانبها، اعتمدت Google DeepMind ما يبدو أنه النهج الأكثر منهجية، حيث نشرت في أبريل 2025 ورقة بحثية شاملة من 145 صفحة حول سلامة الذكاء الاصطناعي العام. ويصنف إطار عمل سلامة الأنظمة المتقدمة لدى الشركة المخاطر إلى أربعة مجالات: سوء الاستخدام، والانحراف عن الأهداف، والحوادث، والمخاطر الهيكلية. ويركز نهج DeepMind على التقدم التدريجي مع تطبيق بروتوكولات تدريب ومراقبة وأمان قوية. كما أنشأت الشركة مجلس سلامة الذكاء الاصطناعي العام بقيادة الشريك المؤسس شين ليج، وتتعاون مع منظمات غير ربحية متخصصة في أبحاث سلامة الذكاء الاصطناعي مثل Apollo وRedwood Research.

تعكس هذه الاستراتيجيات المتباينة التوتر الجوهري في قطاع الذكاء الاصطناعي بين تطوير القدرات بسرعة وتطبيق ضوابط أمان فعالة. ومع اقتراب الأنظمة الذكية من تحقيق أداء بمستوى الإنسان في مجالات متعددة، تزداد الحاجة إلى كيان موحد عبر القطاع مدعوم بمعايير شفافة.

ويحذر الخبراء من أنه بدون معايير سلامة منسقة، قد يدفع الضغط التنافسي الشركات إلى إطلاق نماذج متقدمة بسرعة على حساب إجراءات الأمان. كما أشار جاك كلارك من Anthropic، فإن القطاع بحاجة إلى آليات أقوى "لتحديد المخاطر والتخفيف منها، ودفع تطوير الذكاء الاصطناعي المسؤول" قبل أن تنتشر هذه الأنظمة القوية على نطاق واسع.

Source:

Latest News