menu
close

Un ex-scientifique d’OpenAI envisageait un bunker pour l’ère post-AGI

Ilya Sutskever, ancien directeur scientifique d’OpenAI, a proposé de construire un bunker apocalyptique afin de protéger les chercheurs des dangers potentiels liés à la création d’une intelligence artificielle générale (AGI). Cette révélation, détaillée dans le nouveau livre de Karen Hao, « Empire of AI », met en lumière les profondes inquiétudes de Sutskever concernant les risques existentiels de l’AGI, qui ont finalement contribué à son départ d’OpenAI et à la création de Safe Superintelligence Inc.
Un ex-scientifique d’OpenAI envisageait un bunker pour l’ère post-AGI

À l’été 2023, lors d’une réunion avec des chercheurs d’OpenAI, Ilya Sutskever, alors directeur scientifique, a fait une déclaration saisissante : « Nous allons définitivement construire un bunker avant de lancer l’AGI. » Cette révélation, rapportée pour la première fois dans le livre récemment publié de Karen Hao, « Empire of AI : Dreams and Nightmares in Sam Altman’s OpenAI », offre un aperçu des préoccupations apocalyptiques nourries par l’une des figures les plus influentes de l’intelligence artificielle.

Sutskever, cofondateur d’OpenAI et directeur scientifique jusqu’en mai 2024, estimait que les chercheurs auraient besoin de protection une fois l’intelligence artificielle générale atteinte — des systèmes dotés de capacités cognitives comparables à celles de l’humain. Selon des sources citées dans l’ouvrage de Hao, le projet de bunker de Sutskever avait un double objectif : protéger les principaux scientifiques du chaos géopolitique susceptible de suivre le lancement de l’AGI, et potentiellement servir de base pour influencer l’évolution des systèmes superintelligents.

« Il existe un groupe de personnes — Ilya en fait partie — qui pensent que la création de l’AGI provoquera une sorte de “rapture” », a confié un chercheur à Hao, évoquant non pas une métaphore, mais bien un événement littéralement transformateur pour le monde. Sutskever aurait précisé à ses collègues que l’entrée dans le bunker serait « facultative », mais son approche pragmatique de ces préparatifs extrêmes a inquiété de nombreux membres de l’organisation.

La proposition du bunker a émergé dans un contexte de tensions croissantes au sein d’OpenAI concernant l’orientation de l’entreprise. Sutskever et d’autres s’inquiétaient que l’organisation privilégie l’expansion commerciale au détriment des protocoles de sécurité — des préoccupations qui ont finalement mené à la tentative avortée d’évincer le PDG Sam Altman en novembre 2023. Après le retour d’Altman, Sutskever a quitté OpenAI en mai 2024 pour fonder Safe Superintelligence (SSI) avec Daniel Gross et Daniel Levy.

SSI, qui a levé 3 milliards de dollars et atteint une valorisation de 32 milliards de dollars en avril 2025, incarne l’engagement continu de Sutskever pour la sécurité de l’IA. Contrairement à l’approche diversifiée d’OpenAI, SSI se concentre exclusivement sur le développement d’une superintelligence sûre, Sutskever déclarant : « Notre premier produit sera la superintelligence sûre, et nous ne ferons rien d’autre d’ici là. »

Le contraste entre la prudence de Sutskever et l’optimisme d’Altman met en lumière la fracture idéologique qui traverse la communauté de l’IA. Tandis que Sutskever se préparait à une éventuelle catastrophe, Altman affirmait que l’AGI arriverait avec « étonnamment peu d’impact sociétal ». À mesure que la course vers la superintelligence s’accélère, ces visions concurrentes continuent de façonner la manière dont l’humanité aborde ce qui pourrait être son développement technologique le plus déterminant.

Source: Naturalnews.com

Latest News