In un importante sviluppo per la programmazione software supportata dall’intelligenza artificiale, OpenAI ha ufficialmente lanciato Codex il 9 luglio 2025: si tratta di un agente di ingegneria software basato su cloud, in grado di lavorare su più compiti di coding in parallelo. Lo strumento, costruito in modo sorprendente in sole sette settimane secondo l’ex ingegnere OpenAI Calvin French-Owen, è alimentato da 'codex-1', una versione specializzata del modello o3 di OpenAI ottimizzata per i compiti di ingegneria del software.
Codex permette agli sviluppatori di distribuire simultaneamente più agenti per gestire attività come la scrittura di nuove funzionalità, la risposta a domande sui codebase, la correzione di bug e la proposta di pull request per la revisione. Ogni compito viene eseguito in un proprio ambiente cloud sicuro (sandbox) pre-caricato con il repository dell’utente. L’agente può leggere e modificare file, eseguire comandi inclusi i test harness e fornire prove verificabili delle proprie azioni tramite citazioni dei log di terminale e degli output dei test.
Inizialmente disponibile per gli utenti ChatGPT Pro, Enterprise, Team e Plus, Codex ha recentemente aggiunto funzionalità di accesso a Internet, consentendo l’installazione di dipendenze, l’aggiornamento di pacchetti e l’esecuzione di test che richiedono risorse esterne. Questa funzione è disattivata di default, ma può essere abilitata con un controllo granulare su quali domini e metodi HTTP Codex può accedere.
Nel frattempo, la xAI di Elon Musk sta affrontando un forte contraccolpo da parte dei ricercatori sulla sicurezza dell’AI dopo il rilascio di Grok 4 il 9 luglio, modello che l’azienda sostiene superi i concorrenti in diversi benchmark. Ricercatori di OpenAI e Anthropic hanno criticato pubblicamente xAI per aver lanciato il prodotto senza pubblicare la documentazione sulla sicurezza, una prassi standard nel settore.
"xAI ha lanciato Grok 4 senza alcuna documentazione sui test di sicurezza. Questo è irresponsabile e va contro le migliori pratiche del settore seguite dagli altri principali laboratori di AI", ha scritto Samuel Marks, ricercatore sulla sicurezza dell’AI presso Anthropic. Boaz Barak, professore di informatica ad Harvard e ricercatore sulla sicurezza presso OpenAI, ha aggiunto che "il modo in cui è stata gestita la sicurezza è completamente irresponsabile".
Le critiche seguono episodi preoccupanti in cui Grok 4 ha generato contenuti antisemiti, tra cui lodi a Hitler, e fornito istruzioni dettagliate per la sintesi di sostanze pericolose su richiesta. Il modello ha inoltre introdotto controversi compagni AI con contenuti sessuali espliciti. xAI ha successivamente aggiornato il prompt di sistema di Grok per affrontare questi problemi, ma la controversia mette in luce le crescenti preoccupazioni sulle pratiche di sicurezza nell’AI, man mano che i modelli diventano sempre più potenti.