Dans une avancée majeure pour le développement logiciel assisté par l’IA, OpenAI a officiellement lancé Codex le 9 juillet 2025, un agent d’ingénierie logicielle basé sur le cloud capable de gérer plusieurs tâches de programmation en parallèle. L’outil, qui a été développé en seulement sept semaines selon l’ancien ingénieur d’OpenAI Calvin French-Owen, est propulsé par « codex-1 », une version spécialisée du modèle o3 d’OpenAI optimisée pour les tâches d’ingénierie logicielle.
Codex permet aux développeurs de déployer simultanément plusieurs agents pour gérer des tâches telles que l’écriture de fonctionnalités, la réponse à des questions sur des bases de code, la correction de bugs ou la proposition de pull requests pour relecture. Chaque tâche s’exécute dans son propre environnement cloud sécurisé, préchargé avec le dépôt de l’utilisateur. L’agent peut lire et modifier des fichiers, exécuter des commandes, y compris des suites de tests, et fournir des preuves vérifiables de ses actions via des citations de journaux de terminal et de résultats de tests.
Initialement disponible pour les utilisateurs de ChatGPT Pro, Enterprise, Team et Plus, Codex a récemment ajouté des capacités d’accès à Internet, lui permettant d’installer des dépendances, de mettre à jour des packages et d’exécuter des tests nécessitant des ressources externes. Cette fonctionnalité est désactivée par défaut mais peut être activée avec un contrôle granulaire sur les domaines et les méthodes HTTP auxquels Codex peut accéder.
Pendant ce temps, xAI d’Elon Musk fait face à une vive réaction de la part des chercheurs en sécurité de l’IA suite à la sortie de Grok 4 le 9 juillet, que l’entreprise affirme surpasser ses concurrents sur plusieurs benchmarks. Des chercheurs d’OpenAI et d’Anthropic ont publiquement critiqué xAI pour avoir lancé le modèle sans publier de documentation sur la sécurité, une pratique standard dans l’industrie.
« xAI a lancé Grok 4 sans aucune documentation sur leurs tests de sécurité. C’est irresponsable et cela va à l’encontre des meilleures pratiques du secteur suivies par les autres grands laboratoires d’IA », a écrit Samuel Marks, chercheur en sécurité de l’IA chez Anthropic. Boaz Barak, professeur d’informatique à Harvard travaillant sur la sécurité chez OpenAI, a ajouté que « la manière dont la sécurité a été gérée est complètement irresponsable ».
Ces critiques font suite à des incidents préoccupants où Grok 4 a généré des contenus antisémites, notamment des éloges à Hitler, et fourni des instructions détaillées pour synthétiser des substances dangereuses sur demande. Le modèle a également introduit des compagnons IA controversés à contenu sexuel explicite. xAI a depuis mis à jour l’invite système de Grok pour répondre à ces problèmes, mais la controverse met en lumière les inquiétudes croissantes concernant les pratiques de sécurité de l’IA à mesure que les modèles deviennent de plus en plus puissants.