À l’été 2023, lors d’une réunion avec des chercheurs d’OpenAI, le scientifique en chef de l’époque, Ilya Sutskever, a fait une déclaration choc : « Nous allons définitivement construire un bunker avant de lancer l’AGI. » Cette révélation, rapportée pour la première fois dans le livre récemment publié de Karen Hao, « Empire of AI : Dreams and Nightmares in Sam Altman’s OpenAI », offre un aperçu des préoccupations apocalyptiques d’une des figures les plus influentes de l’IA.
Sutskever, qui a cofondé OpenAI et occupé le poste de scientifique en chef jusqu’en mai 2024, croyait que les chercheurs auraient besoin de protection une fois l’intelligence artificielle générale atteinte — des systèmes d’IA dotés de capacités cognitives équivalentes à celles des humains. Selon des sources citées dans le livre de Hao, la proposition de bunker de Sutskever avait un double objectif : protéger les principaux scientifiques du chaos géopolitique qui pourrait suivre le lancement de l’AGI, et potentiellement servir de base pour influencer l’évolution des systèmes superintelligents.
« Il y a un groupe de personnes — dont Ilya fait partie — qui croient que la création de l’AGI entraînera une sorte de “rapture” », a confié un chercheur à Hao, faisant référence non pas à une métaphore, mais à un événement littéralement transformateur pour le monde. Sutskever aurait assuré à ses collègues que l’entrée dans le bunker serait « optionnelle », mais son approche pragmatique face à de telles mesures extrêmes a inquiété plusieurs membres de l’organisation.
La proposition du bunker a émergé dans un contexte de tensions croissantes chez OpenAI concernant l’orientation de l’entreprise. Sutskever et d’autres s’inquiétaient que l’organisation privilégie l’expansion commerciale au détriment des protocoles de sécurité — des préoccupations qui ont mené à la tentative avortée de destituer le PDG Sam Altman en novembre 2023. Après le retour d’Altman, Sutskever a quitté OpenAI en mai 2024 pour fonder Safe Superintelligence (SSI) avec Daniel Gross et Daniel Levy.
SSI, qui a levé 3 milliards de dollars et atteint une valorisation de 32 milliards de dollars en avril 2025, incarne l’engagement continu de Sutskever envers la sécurité de l’IA. Contrairement à l’approche diversifiée d’OpenAI, SSI se consacre exclusivement au développement d’une superintelligence sécuritaire, Sutskever affirmant : « Notre premier produit sera la superintelligence sécuritaire, et nous ne ferons rien d’autre d’ici là. »
Le contraste entre l’approche prudente de Sutskever et la vision plus optimiste d’Altman met en lumière la division idéologique au sein de la communauté de l’IA. Alors que Sutskever se préparait à une éventuelle catastrophe, Altman a suggéré que l’AGI arriverait avec « étonnamment peu d’impact sociétal ». À mesure que la course vers la superintelligence s’accélère, ces visions concurrentes continuent de façonner la manière dont l’humanité aborde ce qui pourrait être son développement technologique le plus déterminant.