تم الكشف عن إطار أخلاقي رائد للذكاء الاصطناعي العام (AGI) في 13 يونيو 2025، ليشكل لحظة محورية في مسار تطوير أنظمة الذكاء الاصطناعي المتقدمة بشكل مسؤول. وقد تم تطوير هذا الإطار من خلال تعاون غير مسبوق بين كبرى شركات التقنية والمؤسسات البحثية والمنظمات الدولية، بهدف وضع ضوابط أخلاقية مع اقتراب أنظمة الذكاء الاصطناعي من قدرات تماثل البشر.
يعالج الإطار الشامل خمسة مسارات رئيسية تشكل مستقبل الذكاء الاصطناعي العام: الاندماج المجتمعي، التقدم التقني، قابلية التفسير، الاعتبارات المعرفية والأخلاقية، والأنظمة المستوحاة من الدماغ البشري. كما يوفر الإطار إرشادات مفصلة للاختبارات المسبقة قبل الإطلاق وآليات تقييم المخاطر للأنظمة المطروحة بالفعل في السوق.
وصرح أحد ممثلي التحالف قائلاً: "مع تزايد اندماج أنظمة الذكاء الاصطناعي العام في الحوكمة المجتمعية، من الضروري وضع أطر قانونية وإرشادات أخلاقية تحمي حقوق الأفراد". ويؤكد الإطار على الشفافية والمساءلة وضرورة توافق تطوير الذكاء الاصطناعي مع القيم الإنسانية.
وتستند هذه المبادرة إلى جهود سابقة، من ضمنها توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي، لكنها تركز بشكل خاص على التحديات الفريدة التي تفرضها أنظمة الذكاء الاصطناعي العام القادرة على مجاراة أو تجاوز القدرات البشرية في مجالات متعددة. كما يتناول الإطار المخاوف المتعلقة بتأثير الذكاء الاصطناعي على سوق العمل والخصوصية والأمن وإمكانية إساءة الاستخدام.
ويتوقع الخبراء ظهور الذكاء الاصطناعي العام خلال السنوات القليلة المقبلة، مع توقعات بظهور أنظمة عملية بحلول عام 2027. ويأتي هذا الإطار في توقيت حاسم، خاصة مع التقدم السريع في نماذج اللغة الضخمة والأنظمة متعددة الوسائط التي أظهرت قدرات تقترب من الذكاء العام.
وقد أنشأ التحالف لجنة إشراف لمتابعة تنفيذ الإطار وضمان الالتزام به، مع التأكيد على أن الاعتبارات الأخلاقية يجب أن تظل في صميم تطوير الذكاء الاصطناعي العام. كما أعلن التحالف عن خطط لعقد منتدى عالمي حول أخلاقيات الذكاء الاصطناعي العام في بانكوك في وقت لاحق من هذا الشهر، حيث سيناقش أصحاب المصلحة استراتيجيات التنفيذ العملي.