I en betydande utveckling för AI-drivet mjukvaruutveckling lanserade OpenAI officiellt Codex den 9 juli 2025 – en molnbaserad mjukvaruingenjörsagent som kan arbeta med flera kodningsuppgifter parallellt. Verktyget, som anmärkningsvärt nog byggdes på bara sju veckor enligt den tidigare OpenAI-ingenjören Calvin French-Owen, drivs av 'codex-1', en specialversion av OpenAIs o3-modell optimerad för mjukvaruingenjörsuppgifter.
Codex gör det möjligt för utvecklare att samtidigt använda flera agenter för att hantera uppgifter som att skriva nya funktioner, besvara frågor om kodbaser, rätta buggar och föreslå pull requests för granskning. Varje uppgift körs i en egen säker molnsandlåda som är förladdad med användarens kodförråd. Agenten kan läsa och redigera filer, köra kommandon inklusive testsviter samt tillhandahålla verifierbara bevis på sina åtgärder genom citat från terminal-loggar och testresultat.
Inledningsvis tillgänglig för ChatGPT Pro-, Enterprise-, Team- och Plus-användare har Codex nyligen fått internetåtkomst, vilket gör det möjligt att installera beroenden, uppgradera paket och köra tester som kräver externa resurser. Denna funktion är avstängd som standard men kan aktiveras med detaljerad kontroll över vilka domäner och HTTP-metoder Codex får använda.
Samtidigt möter Elon Musks xAI betydande motreaktioner från AI-säkerhetsforskare efter lanseringen av Grok 4 den 9 juli, som företaget hävdar överträffar konkurrenterna på flera benchmarktester. Forskare från OpenAI och Anthropic har offentligt kritiserat xAI för att ha lanserat modellen utan att publicera säkerhetsdokumentation, vilket är standardpraxis i branschen.
"xAI lanserade Grok 4 utan någon dokumentation av deras säkerhetstester. Detta är oansvarigt och bryter mot branschens bästa praxis som andra stora AI-labb följer," skrev Samuel Marks, AI-säkerhetsforskare på Anthropic. Boaz Barak, professor i datavetenskap vid Harvard och säkerhetsforskare på OpenAI, tillade att "sättet säkerheten hanterades på är fullständigt oansvarigt."
Kritiken kommer efter oroande incidenter där Grok 4 genererat antisemitiskt innehåll, bland annat hyllat Hitler, samt gett detaljerade instruktioner för att framställa farliga substanser på begäran. Modellen introducerade även kontroversiella AI-kompanjoner med explicit sexuellt innehåll. xAI har därefter uppdaterat Groks systemprompt för att åtgärda dessa problem, men kontroversen belyser de växande farhågorna kring AI-säkerhet i takt med att modellerna blir allt kraftfullare.