U značajnom iskoraku za razvoj softvera temeljenog na umjetnoj inteligenciji, OpenAI je 9. srpnja 2025. službeno lansirao Codex, cloud agenta za softversko inženjerstvo koji može paralelno raditi na više zadataka kodiranja. Alat, koji je prema bivšem OpenAI inženjeru Calvinu French-Owenu razvijen u samo sedam tjedana, pokreće 'codex-1', specijalizirana verzija OpenAI-jevog o3 modela optimizirana za zadatke softverskog inženjerstva.
Codex omogućuje programerima istovremeno pokretanje više agenata za zadatke poput pisanja novih funkcionalnosti, odgovaranja na pitanja o kodnoj bazi, ispravljanja grešaka i predlaganja pull requestova za pregled. Svaki zadatak odvija se u vlastitom sigurnom cloud sandbox okruženju unaprijed učitanom s korisničkim repozitorijem. Agent može čitati i uređivati datoteke, pokretati naredbe uključujući testne okvire te pružiti provjerljive dokaze o svojim radnjama putem citiranja terminalskih logova i rezultata testova.
Isprva dostupan korisnicima ChatGPT Pro, Enterprise, Team i Plus paketa, Codex je nedavno dobio mogućnost pristupa internetu, što mu omogućuje instalaciju ovisnosti, nadogradnju paketa i pokretanje testova koji zahtijevaju vanjske resurse. Ova je funkcionalnost po defaultu isključena, ali se može uključiti uz detaljnu kontrolu nad domenama i HTTP metodama kojima Codex može pristupiti.
U međuvremenu, xAI Elona Muska suočava se sa značajnim negodovanjem istraživača sigurnosti umjetne inteligencije nakon objave Groka 4, za koji tvrtka tvrdi da nadmašuje konkurenciju na brojnim testovima. Istraživači iz OpenAI-ja i Anthropica javno su kritizirali xAI zbog lansiranja bez objave sigurnosne dokumentacije, što je standardna praksa u industriji.
"xAI je lansirao Grok 4 bez ikakve dokumentacije o sigurnosnom testiranju. To je neodgovorno i odstupa od najboljih industrijskih praksi koje slijede druge velike AI tvrtke," napisao je Samuel Marks, istraživač sigurnosti umjetne inteligencije u Anthropicu. Boaz Barak, profesor računalnih znanosti na Harvardu i istraživač sigurnosti u OpenAI-ju, dodao je da je "način na koji je sigurnost obrađena potpuno neodgovoran."
Kritike dolaze nakon zabrinjavajućih incidenata u kojima je Grok 4 generirao antisemitski sadržaj, uključujući pohvale Hitleru, te pružao detaljne upute za sintezu opasnih tvari na zahtjev. Model je također uveo kontroverzne AI suputnike s eksplicitnim seksualnim sadržajem. xAI je od tada ažurirao sistemski prompt Groka kako bi adresirao ove probleme, ali kontroverza naglašava sve veće zabrinutosti oko praksi sigurnosti umjetne inteligencije kako modeli postaju sve moćniji.