Il CEO di Google DeepMind, Demis Hassabis, ritiene che l’intelligenza artificiale generale (AGI) arriverà probabilmente poco prima o poco dopo il 2030, secondo quanto dichiarato durante una importante apparizione mediatica il 21 maggio 2025.
Durante l’evento, che ha visto anche una partecipazione a sorpresa del cofondatore di Google Sergey Brin, Hassabis ha discusso la tempistica per il raggiungimento dell’AGI—generalmente intesa come un’IA in grado di eguagliare o superare la maggior parte delle capacità umane. Mentre Brin ha previsto che l’AGI arriverà poco prima del 2030, Hassabis ha suggerito che potrebbe arrivare leggermente dopo, scherzando sul fatto che a Brin basta annunciare l’avanzamento, mentre a lui spetta il compito di realizzarlo concretamente.
Hassabis, che ha condiviso il Premio Nobel per la Chimica 2024 grazie al suo lavoro su AlphaFold, ha riconosciuto l’incredibile progresso compiuto dall’IA negli ultimi anni. "Lavoriamo su questo da oltre vent’anni e abbiamo sempre avuto una visione coerente dell’AGI come un sistema capace di esibire tutte le capacità cognitive umane", ha dichiarato. "Credo che ci stiamo avvicinando sempre di più, ma probabilmente mancano ancora alcuni anni."
Il CEO di DeepMind ha previsto che il settore avrà bisogno di un paio di ulteriori grandi scoperte per raggiungere l’AGI, sottolineando che gli approcci al ragionamento recentemente presentati da Google, OpenAI e altri potrebbero rappresentare parte di una di queste svolte. Questi modelli di ragionamento non rispondono immediatamente ai prompt, ma eseguono più calcoli prima di produrre una risposta—"Come la maggior parte di noi, otteniamo dei benefici pensando prima di parlare", ha commentato Brin.
Durante l’intervista, Hassabis ha presentato Project Astra, un prototipo di ricerca che esplora capacità rivoluzionarie per i prodotti Google nel percorso verso la creazione di un assistente universale basato su IA. Alcune delle funzionalità di Astra sono già state integrate in Gemini Live nell’ultimo anno, tra cui la condivisione dello schermo e la comprensione dei video.
Hassabis ha inoltre mostrato Genie 2, un modello di IA in grado di creare un mondo 3D a partire da una singola immagine statica, esplorabile sia da un giocatore umano sia da un agente IA. In un esempio, Genie 2 ha trasformato una fotografia di una cascata in California in un ambiente 3D interattivo navigabile come un videogioco.
Un altro sistema rivoluzionario messo in evidenza è stato SIMA (Scalable Instructable Multiworld Agent), un agente IA capace di seguire istruzioni in linguaggio naturale per svolgere compiti in diversi ambienti videoludici. Man mano che i modelli multimodali di Google diventano più abili e acquisiscono una comprensione più profonda del mondo e delle sue leggi fisiche, stanno rendendo possibili nuovi incredibili progressi nella robotica.
Hassabis ha sottolineato che Google continua a investire nella ricerca fondamentale, lavorando per inventare le prossime grandi scoperte necessarie all’AGI. L’azienda sta estendendo il suo modello Gemini 2.5 Pro affinché diventi un “modello del mondo” in grado di pianificare e immaginare nuove esperienze comprendendo e simulando aspetti della realtà, in modo simile a quanto fa il cervello umano.
Alla domanda sulle considerazioni etiche, Hassabis ha ribadito: "Nulla è cambiato nei nostri principi. Il punto fondamentale è sempre stato: dobbiamo valutare attentamente i benefici, che devono superare sostanzialmente il rischio di danni. Quindi la soglia è molto alta per qualsiasi cosa vogliamo fare. Ovviamente dobbiamo rispettare il diritto internazionale e i diritti umani—questo resta un pilastro."