menu
close

Les modèles d’IA d’OpenAI renforcent les efforts de sécurité nucléaire des États-Unis

OpenAI a conclu un partenariat stratégique avec les laboratoires nationaux américains afin de renforcer la sécurité nucléaire grâce à des technologies d’IA avancées. Cette collaboration offre à près de 15 000 scientifiques l’accès aux modèles de raisonnement sophistiqués o1 d’OpenAI, déployés sur le supercalculateur Venado du laboratoire national de Los Alamos. L’initiative vise à réduire les menaces nucléaires tout en renforçant la protection des infrastructures critiques, positionnant l’IA comme un outil essentiel dans la stratégie de défense nationale.
Les modèles d’IA d’OpenAI renforcent les efforts de sécurité nucléaire des États-Unis

Dans une expansion significative des applications de l’intelligence artificielle à la sécurité nationale, OpenAI a officialisé un partenariat avec les laboratoires nationaux américains axé sur la sécurité nucléaire et la recherche scientifique.

Annoncée par le PDG d’OpenAI, Sam Altman, en janvier 2025 lors de l’événement « Building to Win: AI Economics » à Washington D.C., cette collaboration offre à environ 15 000 scientifiques des laboratoires nationaux de Los Alamos, Lawrence Livermore et Sandia l’accès aux modèles de raisonnement avancés o1 d’OpenAI. En partenariat avec Microsoft, OpenAI déploie ces puissants systèmes d’IA sur Venado, le supercalculateur alimenté par NVIDIA du laboratoire national de Los Alamos.

Le partenariat cible spécifiquement les défis liés à la sécurité nucléaire, OpenAI soutenant les efforts visant à réduire les risques de guerre nucléaire et à sécuriser les matières et armes nucléaires dans le monde entier. Jason Pruet, directeur du Bureau de l’IA pour la sécurité nationale à Los Alamos, a souligné le potentiel transformateur : « Avec les capacités d’OpenAI sur Venado, nous avons l’opportunité d’apporter à la nation des contributions qui semblaient impossibles il y a encore quelques années. »

Au-delà de la sécurité nucléaire, l’initiative couvre plusieurs domaines critiques, notamment le renforcement de la cybersécurité des réseaux électriques, l’accélération de la recherche sur les traitements contre les maladies et l’approfondissement de la compréhension de la physique fondamentale. Les chercheurs d’OpenAI disposant des habilitations de sécurité appropriées fourniront des conseils sur la sécurité de l’IA et réaliseront des examens sélectifs des cas d’usage.

Ce partenariat s’appuie sur des collaborations antérieures entre OpenAI et Los Alamos, dont des recherches conjointes sur l’application sûre de modèles d’IA comme GPT-4o dans la recherche bioscientifique. Il s’inscrit également dans le cadre du projet Stargate, une initiative d’infrastructure d’IA de 500 milliards de dollars soutenue par l’administration du président Trump, qui considère le développement de l’IA comme essentiel pour maintenir le leadership technologique américain face à la concurrence chinoise.

Bien que certains observateurs aient exprimé des inquiétudes quant au rôle de l’IA dans la stratégie nucléaire, OpenAI a précisé que l’initiative se concentre sur la recherche scientifique et le renforcement de la sécurité, plutôt que sur la prise de décisions militaires directes. Ce partenariat témoigne d’une reconnaissance croissante du potentiel de l’IA à relever des défis complexes de sécurité nationale grâce à des capacités de calcul avancées.

Source:

Latest News