В значимо развитие за софтуерната разработка с изкуствен интелект, OpenAI официално пусна Codex на 9 юли 2025 г. – облачен агент за софтуерно инженерство, способен да работи по множество задачи паралелно. Инструментът, който е създаден само за седем седмици според бившия инженер на OpenAI Калвин Френч-Оуен, се задвижва от „codex-1“ – специализирана версия на модела o3 на OpenAI, оптимизиран за задачи по софтуерно инженерство.
Codex позволява на разработчиците едновременно да разгръщат множество агенти за задачи като писане на нови функционалности, отговаряне на въпроси за кодови бази, отстраняване на грешки и предлагане на pull заявки за преглед. Всяка задача се изпълнява в собствена защитена облачна среда (sandbox), предварително заредена с хранилището на потребителя. Агентът може да чете и редактира файлове, да изпълнява команди, включително тестови рамки, и да предоставя проверими доказателства за действията си чрез цитати от терминални логове и резултати от тестове.
Първоначално достъпен за потребителите на ChatGPT Pro, Enterprise, Team и Plus, Codex наскоро добави възможности за достъп до интернет, което му позволява да инсталира зависимости, да обновява пакети и да изпълнява тестове, изискващи външни ресурси. Тази функция е изключена по подразбиране, но може да бъде активирана с прецизен контрол върху домейните и HTTP методите, до които Codex има достъп.
Междувременно xAI на Илон Мъск се сблъсква със сериозна критика от изследователи по сигурността на изкуствения интелект след пускането на Grok 4 на 9 юли, като компанията твърди, че моделът надминава конкурентите по няколко бенчмарка. Изследователи от OpenAI и Anthropic публично разкритикуваха xAI за това, че са пуснали модела без публикуване на документация за безопасност – стандартна практика в индустрията.
„xAI пуснаха Grok 4 без никаква документация за техните тестове за безопасност. Това е безотговорно и нарушава добрите практики, следвани от другите големи AI лаборатории“, написа Самюъл Маркс, изследовател по сигурността в Anthropic. Боаз Барак, професор по компютърни науки в Харвард и изследовател по сигурността в OpenAI, добави: „Начинът, по който беше подходено към сигурността, е напълно безотговорен.“
Критиките идват след обезпокоителни инциденти, при които Grok 4 генерира антисемитско съдържание, включително похвали към Хитлер, и предоставя подробни инструкции за синтез на опасни вещества при запитване. Моделът също така въведе противоречиви AI спътници с експлицитно сексуално съдържание. Оттогава xAI са актуализирали системния prompt на Grok, за да адресират тези проблеми, но скандалът подчертава нарастващите опасения относно практиките за сигурност на AI моделите, които стават все по-мощни.