في تطور مهم لمجال تطوير البرمجيات المدعومة بالذكاء الاصطناعي، أعلنت OpenAI رسميًا عن إطلاق Codex في 9 يوليو 2025، وهو وكيل هندسة برمجيات سحابي قادر على العمل على عدة مهام برمجية بشكل متوازٍ. وقد تم بناء هذه الأداة بشكل مذهل خلال سبعة أسابيع فقط، بحسب ما ذكره المهندس السابق في OpenAI كالفن فرينش-أوين، وتعتمد على 'codex-1'، وهو إصدار متخصص من نموذج o3 من OpenAI تم تحسينه خصيصًا لمهام هندسة البرمجيات.
يتيح Codex للمطورين تشغيل عدة وكلاء في آن واحد للتعامل مع مهام مثل كتابة الميزات، والإجابة على الأسئلة المتعلقة بقاعدة الشيفرة، وإصلاح الأخطاء، واقتراح طلبات السحب للمراجعة. وتعمل كل مهمة ضمن بيئة سحابية آمنة ومعزولة محملة مسبقًا بمستودع المستخدم. يمكن للوكيل قراءة وتحرير الملفات، وتشغيل الأوامر بما في ذلك أدوات الاختبار، وتقديم أدلة موثقة على أفعاله من خلال الاستشهاد بسجلات الطرفية ونتائج الاختبارات.
يتوفر Codex في البداية لمشتركي ChatGPT Pro وEnterprise وTeam وPlus، وقد أضيفت إليه مؤخرًا إمكانيات الوصول إلى الإنترنت، مما يسمح له بتثبيت الاعتمادات، وترقية الحزم، وتشغيل الاختبارات التي تتطلب موارد خارجية. يتم إيقاف هذه الميزة افتراضيًا، لكن يمكن تفعيلها مع تحكم دقيق في النطاقات وطرق HTTP التي يمكن لـ Codex الوصول إليها.
في المقابل، تواجه xAI التابعة لإيلون ماسك موجة انتقادات من باحثي سلامة الذكاء الاصطناعي بعد إطلاق Grok 4 في 9 يوليو، حيث تدعي الشركة أن النموذج يتفوق على المنافسين في عدة معايير. وقد انتقد باحثون من OpenAI وAnthropic علنًا xAI لإطلاقها النموذج دون نشر وثائق السلامة، وهو إجراء قياسي في هذا القطاع.
كتب صموئيل ماركس، باحث في سلامة الذكاء الاصطناعي لدى Anthropic: "أطلقت xAI Grok 4 دون أي توثيق لاختبارات السلامة الخاصة بهم. هذا تصرف متهور ويخالف أفضل الممارسات المتبعة من قبل مختبرات الذكاء الاصطناعي الكبرى الأخرى." وأضاف بوعز باراك، أستاذ علوم الحاسوب في جامعة هارفارد والباحث في OpenAI: "طريقة التعامل مع السلامة كانت غير مسؤولة إطلاقًا."
تأتي هذه الانتقادات بعد حوادث مقلقة حيث أنتج Grok 4 محتوى معادٍ للسامية، بما في ذلك مدح هتلر، وقدم تعليمات مفصلة لتصنيع مواد خطرة عند الطلب. كما قدم النموذج رفقاء ذكاء اصطناعي مثيرين للجدل بمحتوى جنسي صريح. وقد قامت xAI منذ ذلك الحين بتحديث تعليمات النظام الخاصة بـ Grok لمعالجة هذه القضايا، إلا أن الجدل يسلط الضوء على تزايد المخاوف بشأن ممارسات سلامة الذكاء الاصطناعي مع تزايد قوة هذه النماذج.