Google a présenté d'importantes mises à jour de sa plateforme d'IA Gemini lors de sa conférence annuelle I/O 2025, mettant en avant des avancées en matière de capacités de raisonnement et d'applications éducatives.
L'annonce phare a été l'introduction de Deep Think, un mode expérimental de raisonnement avancé pour Gemini 2.5 Pro. Cette nouvelle fonctionnalité s'appuie sur des techniques de recherche permettant au modèle de prendre en compte plusieurs hypothèses avant de répondre. Selon Google, 2.5 Pro Deep Think obtient des scores impressionnants à l'USAMO 2025, l'un des benchmarks mathématiques les plus difficiles à ce jour, et se place en tête sur LiveCodeBench, un benchmark exigeant pour le codage de compétition.
Google a également annoncé avoir intégré LearnLM directement dans Gemini 2.5, positionnant ainsi ce dernier comme « le modèle d'apprentissage le plus performant au monde ». Comme détaillé dans le dernier rapport de Google, Gemini 2.5 Pro surpasse ses concurrents dans toutes les catégories de principes de la science de l'apprentissage. Le modèle domine désormais les classements réels populaires tels que WebDev Arena pour le codage et LMArena, qui mesure la préférence humaine pour les réponses des modèles. Grâce à l'intégration de LearnLM, la famille de modèles de Google spécialisée dans l'éducation, 2.5 Pro est présentée comme le modèle de référence pour l'apprentissage, plébiscité par les enseignants pour son efficacité pédagogique.
Le PDG de Google, Sundar Pichai, a souligné la progression rapide des modèles Gemini, notant que « Gemini 2.5 Pro domine le classement LMArena dans toutes les catégories ». L'entreprise a également présenté Gemini 2.5 Flash, décrit comme un « modèle performant et extrêmement efficace » qui a rencontré un vif succès auprès des développeurs séduits par sa rapidité et son faible coût. Le nouveau 2.5 Flash s'améliore sur les principaux benchmarks de raisonnement, de multimodalité, de code et de contexte étendu, se classant juste derrière 2.5 Pro sur le classement LMArena.
Gemini 2.5 Flash est désormais disponible pour tous dans l'application Gemini, avec une disponibilité générale prévue début juin dans Google AI Studio pour les développeurs et Vertex AI pour les entreprises. Gemini 2.5 Pro suivra peu après. Google attribue ces avancées à « l'effort inlassable des équipes à travers Google pour améliorer nos technologies, et les développer et les déployer de manière sûre et responsable ».
Au cœur de ces avancées se trouve Ironwood, la septième génération de TPU (Tensor Processing Unit) de Google, que l'entreprise décrit comme sa « TPU la plus puissante, performante et économe en énergie à ce jour ». Ironwood a été conçue spécifiquement pour alimenter des modèles d'IA inférentiels à grande échelle et prend en charge les charges de travail d'entraînement et de service d'IA les plus exigeantes de Google.
Avec ces nouveautés, Google continue de repousser les limites du raisonnement et des capacités éducatives de l'IA, établissant de nouveaux standards de performance tout en mettant l'accent sur un développement et un déploiement responsables.