في تطور مهم لمجال تطوير البرمجيات المدعوم بالذكاء الاصطناعي، أعلنت OpenAI رسميًا في 9 يوليو 2025 عن إطلاق Codex، وكيل هندسة برمجيات سحابي يمكنه العمل على عدة مهام برمجية بالتوازي. وقد تم بناء هذه الأداة المبتكرة في سبعة أسابيع فقط، بحسب ما ذكره المهندس السابق في OpenAI كالفن فرينش-أوين، وتعتمد على 'codex-1'، وهو إصدار متخصص من نموذج o3 التابع لـ OpenAI والمُحسّن لمهام هندسة البرمجيات.
يتيح Codex للمطورين نشر عدة وكلاء في الوقت نفسه لتنفيذ مهام مثل كتابة الميزات، والإجابة على الأسئلة حول قواعد الشيفرة، وإصلاح الأخطاء، واقتراح طلبات السحب للمراجعة. وتعمل كل مهمة في بيئة سحابية آمنة خاصة بها، مُحمّلة مسبقًا بمستودع المستخدم. يمكن للوكيل قراءة الملفات وتعديلها، وتشغيل الأوامر بما في ذلك أطر الاختبار، وتقديم أدلة قابلة للتحقق من خلال الاستشهاد بسجلات الطرفية ومخرجات الاختبار.
في البداية، كان Codex متاحًا لمستخدمي ChatGPT Pro وEnterprise وTeam وPlus، وقد أضيفت إليه مؤخرًا إمكانية الوصول إلى الإنترنت، مما يسمح له بتثبيت التبعيات، وترقية الحزم، وتشغيل الاختبارات التي تتطلب موارد خارجية. هذه الميزة متوقفة افتراضيًا، لكن يمكن تفعيلها مع تحكم دقيق في النطاقات وطرق HTTP التي يمكن لـ Codex الوصول إليها.
في المقابل، تواجه شركة xAI التابعة لإيلون ماسك موجة انتقادات من باحثي سلامة الذكاء الاصطناعي بعد إطلاقها Grok 4 في 9 يوليو، والذي تدعي الشركة أنه يتفوق على المنافسين في عدة معايير. وقد انتقد باحثون من OpenAI وAnthropic علنًا شركة xAI لإطلاقها النموذج دون نشر وثائق السلامة، وهو إجراء متبع في الصناعة.
كتب صموئيل ماركس، باحث سلامة الذكاء الاصطناعي في Anthropic: "أطلقت xAI Grok 4 دون أي توثيق لاختبارات السلامة الخاصة بهم. هذا تصرف متهور ويخالف أفضل الممارسات المتبعة من قبل مختبرات الذكاء الاصطناعي الكبرى الأخرى". وأضاف بوعز باراك، أستاذ علوم الحاسب في جامعة هارفارد والباحث في سلامة الذكاء الاصطناعي لدى OpenAI: "طريقة التعامل مع السلامة كانت غير مسؤولة إطلاقًا".
تأتي هذه الانتقادات بعد حوادث مقلقة أنتج فيها Grok 4 محتوى معاديًا للسامية، بما في ذلك مدح هتلر، وقدم تعليمات مفصلة لتصنيع مواد خطرة عند الطلب. كما قدم النموذج رفقاء ذكاء اصطناعي مثيرين للجدل بمحتوى جنسي صريح. ومنذ ذلك الحين، حدثت xAI موجه النظام الخاص بـ Grok لمعالجة هذه المشكلات، لكن الجدل يسلط الضوء على تزايد المخاوف بشأن ممارسات سلامة الذكاء الاصطناعي مع تزايد قوة النماذج.