Le PDG de Google DeepMind, Demis Hassabis, estime que l’intelligence artificielle générale (AGI) arrivera probablement juste avant ou après 2030, selon des déclarations faites lors d’une importante apparition médiatique le 21 mai 2025.
Lors de l’événement, qui a notamment compté sur la présence surprise du cofondateur de Google, Sergey Brin, Hassabis a discuté du calendrier pour atteindre l’AGI — généralement comprise comme une IA qui égale ou dépasse la plupart des capacités humaines. Tandis que Brin prédisait une arrivée de l’AGI juste avant 2030, Hassabis a suggéré qu’elle pourrait survenir un peu après, plaisantant que Brin n’a qu’à demander pour que l’avancée ait lieu, alors que lui doit trouver comment la concrétiser.
Hassabis, qui a remporté une part du prix Nobel de chimie 2024 pour son travail sur AlphaFold, a reconnu les progrès incroyables réalisés en IA au cours des dernières années. « Nous travaillons là-dessus depuis plus de 20 ans, et nous avons toujours eu une vision cohérente de l’AGI comme étant un système capable de démontrer toutes les capacités cognitives humaines », a-t-il affirmé. « Je pense que nous nous rapprochons de plus en plus, mais il nous reste probablement encore quelques années. »
Le PDG de DeepMind a prédit que l’industrie aura besoin de quelques autres grandes percées pour atteindre l’AGI, notant que les approches de raisonnement récemment dévoilées par Google, OpenAI et d’autres pourraient représenter une partie de l’une de ces avancées. Ces modèles de raisonnement ne répondent pas immédiatement aux requêtes, mais effectuent davantage de calculs avant de produire une réponse — « Comme la plupart d’entre nous, on bénéficie à réfléchir avant de parler », a illustré Brin.
Au cours de l’entrevue, Hassabis a présenté le projet Astra, un prototype de recherche explorant des capacités révolutionnaires pour les produits Google sur la voie de la création d’un assistant IA universel. Certaines des fonctionnalités d’Astra ont déjà été intégrées à Gemini Live au cours de la dernière année, notamment le partage d’écran et la compréhension vidéo.
Hassabis a aussi fait la démonstration de Genie 2, un modèle d’IA capable de créer un monde 3D à partir d’une seule image statique, qui peut ensuite être exploré par un joueur humain ou un agent IA. Dans un exemple, Genie 2 a transformé une photo d’une chute d’eau en Californie en un environnement 3D interactif navigable comme dans un jeu vidéo.
Un autre système révolutionnaire mis en avant était SIMA (Scalable Instructable Multiworld Agent), un agent IA capable de suivre des instructions en langage naturel pour accomplir des tâches dans divers environnements de jeux vidéo. À mesure que les modèles multimodaux de Google gagnent en capacité et en compréhension du monde et de sa physique, ils rendent possibles de nouvelles avancées impressionnantes en robotique.
Hassabis a souligné que Google continue d’investir massivement dans la recherche fondamentale, travaillant à inventer les prochaines grandes percées nécessaires à l’AGI. L’entreprise étend son modèle Gemini 2.5 Pro pour en faire un « modèle du monde » capable de planifier et d’imaginer de nouvelles expériences en comprenant et en simulant des aspects du monde, à l’image du fonctionnement du cerveau humain.
Interrogé sur les considérations éthiques, Hassabis a insisté : « Nos principes n’ont pas changé. L’essentiel de nos principes a toujours été : nous devons soigneusement peser les bénéfices, qui doivent largement l’emporter sur le risque de préjudice. C’est donc une exigence élevée pour toute chose que nous pourrions vouloir faire. Bien sûr, nous devons respecter le droit international et les droits de la personne — tout cela demeure. »