menu
close

Un ex-scientifique d’OpenAI planifiait un bunker pour un monde post-AGI

Ilya Sutskever, ancien scientifique en chef d’OpenAI, a proposé la construction d’un bunker apocalyptique pour protéger les chercheurs contre les dangers potentiels découlant de la création d’une intelligence artificielle générale (AGI). Cette révélation, détaillée dans le nouveau livre de Karen Hao, « Empire of AI », met en lumière les profondes inquiétudes de Sutskever face aux risques existentiels de l’AGI, qui ont finalement mené à son départ d’OpenAI et à la fondation de Safe Superintelligence Inc.
Un ex-scientifique d’OpenAI planifiait un bunker pour un monde post-AGI

À l’été 2023, lors d’une réunion avec des chercheurs d’OpenAI, le scientifique en chef de l’époque, Ilya Sutskever, a fait une déclaration choc : « Nous allons définitivement construire un bunker avant de lancer l’AGI. » Cette révélation, rapportée pour la première fois dans le livre récemment publié de Karen Hao, « Empire of AI : Dreams and Nightmares in Sam Altman’s OpenAI », offre un aperçu des préoccupations apocalyptiques d’une des figures les plus influentes de l’IA.

Sutskever, qui a cofondé OpenAI et occupé le poste de scientifique en chef jusqu’en mai 2024, croyait que les chercheurs auraient besoin de protection une fois l’intelligence artificielle générale atteinte — des systèmes d’IA dotés de capacités cognitives équivalentes à celles des humains. Selon des sources citées dans le livre de Hao, la proposition de bunker de Sutskever avait un double objectif : protéger les principaux scientifiques du chaos géopolitique qui pourrait suivre le lancement de l’AGI, et potentiellement servir de base pour influencer l’évolution des systèmes superintelligents.

« Il y a un groupe de personnes — dont Ilya fait partie — qui croient que la création de l’AGI entraînera une sorte de “rapture” », a confié un chercheur à Hao, faisant référence non pas à une métaphore, mais à un événement littéralement transformateur pour le monde. Sutskever aurait assuré à ses collègues que l’entrée dans le bunker serait « optionnelle », mais son approche pragmatique face à de telles mesures extrêmes a inquiété plusieurs membres de l’organisation.

La proposition du bunker a émergé dans un contexte de tensions croissantes chez OpenAI concernant l’orientation de l’entreprise. Sutskever et d’autres s’inquiétaient que l’organisation privilégie l’expansion commerciale au détriment des protocoles de sécurité — des préoccupations qui ont mené à la tentative avortée de destituer le PDG Sam Altman en novembre 2023. Après le retour d’Altman, Sutskever a quitté OpenAI en mai 2024 pour fonder Safe Superintelligence (SSI) avec Daniel Gross et Daniel Levy.

SSI, qui a levé 3 milliards de dollars et atteint une valorisation de 32 milliards de dollars en avril 2025, incarne l’engagement continu de Sutskever envers la sécurité de l’IA. Contrairement à l’approche diversifiée d’OpenAI, SSI se consacre exclusivement au développement d’une superintelligence sécuritaire, Sutskever affirmant : « Notre premier produit sera la superintelligence sécuritaire, et nous ne ferons rien d’autre d’ici là. »

Le contraste entre l’approche prudente de Sutskever et la vision plus optimiste d’Altman met en lumière la division idéologique au sein de la communauté de l’IA. Alors que Sutskever se préparait à une éventuelle catastrophe, Altman a suggéré que l’AGI arriverait avec « étonnamment peu d’impact sociétal ». À mesure que la course vers la superintelligence s’accélère, ces visions concurrentes continuent de façonner la manière dont l’humanité aborde ce qui pourrait être son développement technologique le plus déterminant.

Source: Naturalnews.com

Latest News