menu
close

عالم سابق في OpenAI خطط لبناء ملجأ للعالم بعد الذكاء الاصطناعي العام

اقترح إيليا سوتسكيفر، كبير العلماء السابق في OpenAI، بناء ملجأ يوم القيامة لحماية الباحثين من المخاطر المحتملة بعد تطوير الذكاء الاصطناعي العام (AGI). هذا الكشف، الذي ورد في كتاب كارين هاو الجديد "إمبراطورية الذكاء الاصطناعي"، يسلط الضوء على مخاوف سوتسكيفر العميقة من المخاطر الوجودية للذكاء الاصطناعي، والتي ساهمت في نهاية المطاف في مغادرته لـ OpenAI وتأسيسه لشركة Safe Superintelligence Inc.
عالم سابق في OpenAI خطط لبناء ملجأ للعالم بعد الذكاء الاصطناعي العام

في صيف عام 2023، وخلال اجتماع مع باحثي OpenAI، أدلى كبير العلماء آنذاك إيليا سوتسكيفر بتصريح مفاجئ: "بالتأكيد سنبني ملجأ قبل أن نطلق الذكاء الاصطناعي العام." هذا التصريح، الذي ورد لأول مرة في كتاب كارين هاو المنشور حديثاً "إمبراطورية الذكاء الاصطناعي: الأحلام والكوابيس في OpenAI لسام ألتمان"، يكشف عن المخاوف الكارثية التي يحملها أحد أبرز الشخصيات المؤثرة في مجال الذكاء الاصطناعي.

كان سوتسكيفر، الذي شارك في تأسيس OpenAI وشغل منصب كبير العلماء حتى مايو 2024، يعتقد أن الباحثين سيحتاجون إلى الحماية بمجرد تحقيق الذكاء الاصطناعي العام — أي أنظمة ذكاء اصطناعي بقدرات معرفية على مستوى الإنسان. ووفقاً لمصادر وردت في كتاب هاو، كان اقتراح سوتسكيفر ببناء الملجأ ذا هدفين: حماية العلماء الرئيسيين من الفوضى الجيوسياسية التي قد تعقب إطلاق الذكاء الاصطناعي العام، واستخدام الملجأ كمركز انطلاق للتأثير على كيفية تطور الأنظمة فائقة الذكاء.

قال أحد الباحثين لهاو: "هناك مجموعة من الأشخاص — إيليا أحدهم — يعتقدون أن بناء الذكاء الاصطناعي العام سيجلب نوعاً من القيامة"، في إشارة إلى حدث عالمي يغير وجه العالم بشكل حرفي وليس مجازي. ووفقاً للتقارير، طمأن سوتسكيفر زملاءه بأن دخول الملجأ سيكون "اختيارياً"، لكن تعامله الجاد مع مثل هذه الاستعدادات المتطرفة أثار قلق الكثيرين داخل المنظمة.

ظهر اقتراح الملجأ في ظل تصاعد التوترات داخل OpenAI بشأن توجه الشركة. كان سوتسكيفر وآخرون قلقين من أن المنظمة تعطي الأولوية للتوسع التجاري على حساب بروتوكولات السلامة — وهي مخاوف أدت في النهاية إلى محاولة فاشلة للإطاحة بالرئيس التنفيذي سام ألتمان في نوفمبر 2023. وبعد عودة ألتمان لمنصبه، غادر سوتسكيفر OpenAI في مايو 2024 ليؤسس شركة Safe Superintelligence (SSI) مع دانيال غروس ودانيال ليفي.

تمكنت SSI، التي جمعت 3 مليارات دولار وبلغت قيمتها السوقية 32 مليار دولار حتى أبريل 2025، من تجسيد التزام سوتسكيفر المستمر بسلامة الذكاء الاصطناعي. وعلى عكس نهج OpenAI المتنوع، تركز SSI حصرياً على تطوير ذكاء اصطناعي فائق آمن، حيث صرّح سوتسكيفر: "منتجنا الأول سيكون الذكاء الاصطناعي الفائق الآمن، ولن نقوم بأي شيء آخر حتى ذلك الحين."

يبرز التباين بين نهج سوتسكيفر الحذر ونظرة ألتمان المتفائلة الفجوة الأيديولوجية داخل مجتمع الذكاء الاصطناعي. وبينما استعد سوتسكيفر لاحتمال وقوع كارثة، أشار ألتمان إلى أن الذكاء الاصطناعي العام سيصل مع "تأثير مجتمعي مفاجئ الصغر". ومع تسارع السباق نحو الذكاء الفائق، تواصل هذه الرؤى المتنافسة تشكيل الطريقة التي يتعامل بها البشر مع ما قد يكون أكثر تطور تكنولوجي مصيري في تاريخهم.

Source: Naturalnews.com

Latest News