menu
close

عمالقة الذكاء الاصطناعي يختلفون حول استراتيجيات إدارة المخاطر الوجودية

تتبع شركات الذكاء الاصطناعي الرائدة استراتيجيات متباينة لإدارة المخاطر الوجودية التي تفرضها الأنظمة المتقدمة. تدعو شركة Anthropic إلى التخطيط لأسوأ السيناريوهات، بينما تركز OpenAI على مبادرات الشفافية من خلال مركز تقييمات السلامة الجديد. أما Google DeepMind فقد تبنت نهجاً أكثر منهجية وتدرجاً عبر إطار عمل شامل لأمان الأنظمة المتقدمة. تبرز هذه الاختلافات الاستراتيجية التوتر القائم بين التقدم السريع للذكاء الاصطناعي وتطبيق الضمانات الصارمة.
عمالقة الذكاء الاصطناعي يختلفون حول استراتيجيات إدارة المخاطر الوجودية

تشهد صناعة الذكاء الاصطناعي انقساماً ملحوظاً بين الشركات الرائدة حول كيفية التعامل مع المخاطر الوجودية المحتملة الناتجة عن الأنظمة الذكية المتزايدة القوة.

تتخذ شركة Anthropic، التي تبلغ قيمتها 61 مليار دولار والمدعومة من أمازون، موقفاً حذراً للغاية، حيث تحذر باستمرار من أن قدرات الذكاء الاصطناعي غير المنضبطة قد تتجاوز تدابير الأمان. وقد كان الرئيس التنفيذي، داريو أمودي، من أكثر الأصوات وضوحاً في الدعوة إلى التخطيط لأسوأ السيناريوهات، حيث صرح مؤخراً بأن النماذج "ستتفوق علينا قريباً في كل شيء تقريباً". وتشمل سياسة الشركة للتوسع المسؤول تدابير أمنية مادية معززة مثل تفتيش المكاتب بحثاً عن أجهزة مخفية، بالإضافة إلى مجلس مخاطر تنفيذي لتقييم النماذج القوية قبل إطلاقها.

أما شركة OpenAI، التي بلغت قيمتها مؤخراً 300 مليار دولار، فقد اتبعت نهجاً مختلفاً يركز على مبادرات الشفافية. ففي مايو 2025، أطلقت الشركة مركز تقييمات السلامة، وهو منصة إلكترونية تعرض نتائج نماذجها في اختبارات السلامة المختلفة المتعلقة بإنتاج المحتوى الضار، والتجاوزات الأمنية، والهلوسة. وتعهدت OpenAI بتحديث هذه المؤشرات بانتظام مع كل إصدار رئيسي جديد. ومع ذلك، أثارت التحديثات الأخيرة على إطار الاستعداد مخاوف، حيث أشارت الشركة إلى إمكانية "تعديل" متطلبات الأمان إذا قام المنافسون بإطلاق أنظمة عالية الخطورة دون تطبيق إجراءات حماية مماثلة.

وتبنت Google DeepMind نهجاً يبدو الأكثر منهجية، حيث أصدرت في أبريل 2025 ورقة بحثية شاملة من 145 صفحة حول أمان الذكاء الاصطناعي العام. ويصنف إطار عمل أمان الأنظمة المتقدمة لدى الشركة مخاطر الذكاء الاصطناعي إلى أربعة مجالات: سوء الاستخدام، وعدم التوافق، والحوادث، والمخاطر الهيكلية. وتؤكد استراتيجية DeepMind على التقدم التدريجي مع تدريب قوي، ومراقبة دقيقة، وبروتوكولات أمان صارمة. كما أنشأت الشركة مجلساً لأمان الذكاء الاصطناعي العام برئاسة الشريك المؤسس شين ليج، وتتعاون مع منظمات غير ربحية متخصصة في أبحاث سلامة الذكاء الاصطناعي مثل Apollo وRedwood Research.

تعكس هذه الاستراتيجيات المتباينة التوتر الجوهري في صناعة الذكاء الاصطناعي بين تطوير القدرات بسرعة وتطبيق الضمانات الصارمة. ومع اقتراب الأنظمة الذكية من تحقيق أداء بمستوى الإنسان في مجالات متعددة، تزداد الحاجة إلى اتحاد صناعي موحد للسلامة مدعوم بمعايير شفافة.

ويشير الخبراء إلى أنه في ظل غياب معايير سلامة منسقة، قد يؤدي الضغط التنافسي لإطلاق النماذج المتقدمة بسرعة إلى تهاون الشركات في تدابير الأمان. وكما أشار جاك كلارك من Anthropic، فإن الصناعة بحاجة إلى آليات أقوى "لتحديد المخاطر والتخفيف منها، وتعزيز تطوير الذكاء الاصطناعي المسؤول" قبل نشر هذه الأنظمة القوية على نطاق واسع.

Source:

Latest News