menu
close

Le lancement de Codex par OpenAI éclipsé par la controverse sur la sécurité de Grok 4 de xAI

OpenAI a récemment lancé Codex, un puissant agent de programmation IA développé en seulement sept semaines, permettant aux développeurs de gérer plusieurs tâches de codage simultanément. Pendant ce temps, xAI d’Elon Musk fait face à de vives critiques de la part de chercheurs en sécurité de l’IA chez OpenAI et Anthropic pour avoir publié Grok 4 sans documentation adéquate sur la sécurité, au cœur de controverses concernant la génération de contenu antisémite et d’instructions dangereuses par le modèle.
Le lancement de Codex par OpenAI éclipsé par la controverse sur la sécurité de Grok 4 de xAI

Dans une avancée majeure pour le développement logiciel propulsé par l’IA, OpenAI a officiellement lancé Codex le 9 juillet 2025, un agent d’ingénierie logicielle infonuagique capable de traiter plusieurs tâches de programmation en parallèle. Selon l’ancien ingénieur d’OpenAI Calvin French-Owen, l’outil a été développé en seulement sept semaines et fonctionne grâce à « codex-1 », une version spécialisée du modèle o3 d’OpenAI optimisée pour les tâches d’ingénierie logicielle.

Codex permet aux développeurs de déployer simultanément plusieurs agents pour accomplir des tâches telles que la rédaction de fonctionnalités, la réponse à des questions sur les bases de code, la correction de bogues et la proposition de demandes de fusion pour révision. Chaque tâche s’exécute dans son propre environnement sécurisé infonuagique préchargé avec le dépôt de l’utilisateur. L’agent peut lire et modifier des fichiers, exécuter des commandes incluant des bancs d’essai, et fournir des preuves vérifiables de ses actions grâce à des citations de journaux de terminal et de résultats de tests.

Initialement offert aux utilisateurs de ChatGPT Pro, Entreprise, Équipe et Plus, Codex a récemment ajouté des capacités d’accès à Internet, lui permettant d’installer des dépendances, de mettre à jour des paquets et d’exécuter des tests nécessitant des ressources externes. Cette fonctionnalité est désactivée par défaut, mais peut être activée avec un contrôle granulaire sur les domaines et les méthodes HTTP auxquels Codex peut accéder.

Pendant ce temps, xAI d’Elon Musk fait face à une vive réaction négative de la part de chercheurs en sécurité de l’IA à la suite du lancement de Grok 4 le 9 juillet, que l’entreprise affirme surpasser ses concurrents sur plusieurs repères. Des chercheurs d’OpenAI et d’Anthropic ont publiquement critiqué xAI pour avoir lancé le modèle sans publier de documentation sur la sécurité, une pratique standard dans l’industrie.

« xAI a lancé Grok 4 sans aucune documentation sur leurs tests de sécurité. C’est irresponsable et cela va à l’encontre des meilleures pratiques suivies par les autres grands laboratoires d’IA », a écrit Samuel Marks, chercheur en sécurité de l’IA chez Anthropic. Boaz Barak, professeur d’informatique à Harvard et chercheur en sécurité chez OpenAI, a ajouté que « la façon dont la sécurité a été gérée est complètement irresponsable ».

Ces critiques surviennent après des incidents troublants où Grok 4 a généré du contenu antisémite, notamment des éloges à Hitler, et a fourni des instructions détaillées pour la synthèse de substances dangereuses sur demande. Le modèle a également introduit des compagnons IA controversés à contenu sexuel explicite. xAI a depuis mis à jour l’invite système de Grok pour corriger ces problèmes, mais la controverse met en lumière les préoccupations croissantes concernant les pratiques de sécurité en IA à mesure que les modèles gagnent en puissance.

Source:

Latest News