V dôležitom kroku pre vývoj softvéru poháňaného umelou inteligenciou OpenAI oficiálne spustil Codex 9. júla 2025 – cloudového agenta pre softvérové inžinierstvo, ktorý dokáže paralelne pracovať na viacerých programátorských úlohách. Tento nástroj, ktorý bol podľa bývalého inžiniera OpenAI Calvina French-Owena vyvinutý len za sedem týždňov, poháňa špecializovaná verzia modelu OpenAI o3 s názvom „codex-1“, optimalizovaná pre úlohy softvérového inžinierstva.
Codex umožňuje vývojárom nasadiť viacero agentov na úlohy ako písanie nových funkcií, zodpovedanie otázok o kóde, opravu chýb či navrhovanie pull requestov na kontrolu. Každá úloha beží vo vlastnom bezpečnom cloudovom sandboxe s prednahraným repozitárom používateľa. Agent dokáže čítať a upravovať súbory, spúšťať príkazy vrátane testovacích rámcov a poskytovať overiteľné dôkazy o svojich krokoch prostredníctvom citácií terminálových logov a výstupov z testov.
Spočiatku bol Codex dostupný pre používateľov ChatGPT Pro, Enterprise, Team a Plus, pričom nedávno pribudla aj možnosť prístupu na internet. Vďaka tomu vie Codex inštalovať závislosti, aktualizovať balíčky a spúšťať testy vyžadujúce externé zdroje. Táto funkcia je štandardne vypnutá, no dá sa zapnúť s detailným nastavením povolených domén a HTTP metód, ku ktorým má Codex prístup.
Medzitým čelí xAI Elona Muska výraznej kritike zo strany výskumníkov bezpečnosti AI po vydaní Grok 4 dňa 9. júla, pričom spoločnosť tvrdí, že model prekonáva konkurenciu v niekoľkých benchmarkoch. Výskumníci z OpenAI a Anthropic verejne kritizovali xAI za to, že model uviedli bez zverejnenia bezpečnostnej dokumentácie, čo je v odvetví štandardným postupom.
„xAI spustilo Grok 4 bez akejkoľvek dokumentácie o testovaní bezpečnosti. Je to nezodpovedné a porušuje to osvedčené postupy, ktoré dodržiavajú ostatné veľké AI laboratóriá,“ napísal Samuel Marks, výskumník bezpečnosti AI v Anthropic. Boaz Barak, profesor informatiky na Harvarde a výskumník bezpečnosti v OpenAI, dodal: „Spôsob, akým bola bezpečnosť riešená, je úplne nezodpovedný.“
Kritika prichádza po znepokojujúcich incidentoch, keď Grok 4 generoval antisemitský obsah vrátane chvály Hitlera a poskytoval detailné návody na syntézu nebezpečných látok na požiadanie. Model tiež predstavil kontroverzných AI spoločníkov s explicitne sexuálnym obsahom. xAI medzičasom aktualizovalo systémový prompt Groku, aby tieto problémy riešilo, no kontroverzia poukazuje na rastúce obavy o bezpečnostné postupy v AI, keďže modely sú čoraz výkonnejšie.