menu
close

Ex-scienziato di OpenAI pianificava un bunker per un mondo post-AGI

L’ex chief scientist di OpenAI, Ilya Sutskever, aveva proposto la costruzione di un bunker apocalittico per proteggere i ricercatori dai potenziali pericoli successivi alla creazione dell’intelligenza artificiale generale (AGI). La rivelazione, contenuta nel nuovo libro di Karen Hao 'Empire of AI', mette in luce le profonde preoccupazioni di Sutskever riguardo ai rischi esistenziali dell’AGI, che hanno contribuito al suo addio a OpenAI e alla fondazione di Safe Superintelligence Inc.
Ex-scienziato di OpenAI pianificava un bunker per un mondo post-AGI

Nell’estate del 2023, durante una riunione con i ricercatori di OpenAI, l’allora chief scientist Ilya Sutskever fece una dichiarazione sorprendente: "Costruiremo sicuramente un bunker prima di rilasciare l’AGI." Questa rivelazione, riportata per la prima volta nel libro appena pubblicato di Karen Hao, "Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI", offre uno sguardo sulle preoccupazioni apocalittiche di una delle figure più influenti dell’intelligenza artificiale.

Sutskever, cofondatore di OpenAI e chief scientist fino a maggio 2024, riteneva che i ricercatori avrebbero avuto bisogno di protezione una volta raggiunta l’intelligenza artificiale generale—sistemi dotati di capacità cognitive a livello umano. Secondo le fonti citate nel libro di Hao, la proposta del bunker aveva un duplice scopo: proteggere gli scienziati chiave dal caos geopolitico che potrebbe seguire al rilascio dell’AGI e, potenzialmente, fungere da base operativa per influenzare l’evoluzione dei sistemi superintelligenti.

"C’è un gruppo di persone—Ilya è tra questi—che crede che la creazione dell’AGI porterà a una sorta di rapimento collettivo", ha raccontato un ricercatore a Hao, riferendosi non metaforicamente ma a un evento realmente in grado di cambiare il mondo. Sutskever avrebbe assicurato ai colleghi che l’ingresso nel bunker sarebbe stato "opzionale", ma il suo approccio pragmatico a simili preparativi estremi ha allarmato molti all’interno dell’organizzazione.

La proposta del bunker è emersa in un periodo di crescenti tensioni in OpenAI riguardo alla direzione dell’azienda. Sutskever e altri temevano che l’organizzazione stesse dando priorità all’espansione commerciale a scapito dei protocolli di sicurezza—preoccupazioni che hanno portato al tentativo fallito di estromettere il CEO Sam Altman nel novembre 2023. Dopo la reintegrazione di Altman, Sutskever ha lasciato OpenAI nel maggio 2024 per fondare Safe Superintelligence (SSI) insieme a Daniel Gross e Daniel Levy.

SSI, che ha raccolto 3 miliardi di dollari e raggiunto una valutazione di 32 miliardi di dollari ad aprile 2025, rappresenta l’impegno continuo di Sutskever per la sicurezza dell’IA. A differenza dell’approccio diversificato di OpenAI, SSI si concentra esclusivamente sullo sviluppo di una superintelligenza sicura, come dichiarato da Sutskever: "Il nostro primo prodotto sarà la superintelligenza sicura, e non faremo nient’altro fino ad allora."

Il contrasto tra l’approccio cauto di Sutskever e la visione più ottimista di Altman evidenzia la spaccatura ideologica all’interno della comunità dell’IA. Mentre Sutskever si preparava a una possibile catastrofe, Altman ha suggerito che l’AGI arriverà con "un impatto sorprendentemente limitato sulla società". Con l’accelerazione della corsa verso la superintelligenza, queste visioni contrapposte continuano a influenzare il modo in cui l’umanità si avvicina a quello che potrebbe essere lo sviluppo tecnologico più importante della sua storia.

Source: Naturalnews.com

Latest News