menu
close

Google dévoile Gemini 2.5 et le TPU Ironwood à l'I/O 2025

Lors de l'événement Google I/O 2025, l'entreprise a présenté des avancées majeures en intelligence artificielle, avec Gemini 2.5 Pro qui domine désormais le classement LMArena dans toutes les catégories. Google a aussi introduit Deep Think, un mode expérimental de raisonnement amélioré pour les tâches complexes en mathématiques et en programmation. De plus, Google a dévoilé son TPU de septième génération, Ironwood, offrant 42,5 exaflops de puissance de calcul par pod, conçu spécialement pour les charges de travail d'IA inférentielle.
Google dévoile Gemini 2.5 et le TPU Ironwood à l'I/O 2025

Google a franchi une étape importante dans le développement de l'intelligence artificielle lors de sa conférence annuelle I/O 2025, démontrant comment ses technologies les plus récentes transforment le paysage de l'IA.

Le PDG Sundar Pichai a souligné les progrès remarquables des modèles d'IA de Google, notant que les scores Elo ont augmenté de plus de 300 points depuis le premier modèle Gemini Pro. La vedette de l'événement était Gemini 2.5 Pro, qui domine désormais le classement LMArena dans toutes les catégories, illustrant le leadership de Google dans le développement de modèles alignés sur les préférences humaines.

Une annonce majeure a été l'introduction de Deep Think, un mode expérimental de raisonnement amélioré pour Gemini 2.5 Pro. Cette fonctionnalité permet au modèle de considérer plusieurs hypothèses avant de répondre, ce qui se traduit par des performances impressionnantes sur des bancs d'essai exigeants. Selon Google, Deep Think obtient des résultats exceptionnels sur le benchmark USAMO 2025 en mathématiques et se classe en tête sur LiveCodeBench pour la programmation de niveau compétition.

Du côté matériel, Google a dévoilé Ironwood, son unité de traitement tensoriel (TPU) de septième génération. Cet accélérateur d'IA sur mesure est le premier conçu spécifiquement pour les charges de travail d'inférence, offrant une performance dix fois supérieure à la génération précédente. Chaque pod Ironwood contient 9 216 puces et fournit une puissance de calcul massive de 42,5 exaflops, ce qui le rend idéal pour alimenter des modèles d'IA inférentielle à grande échelle.

Google a également présenté Project Mariner, un agent d'IA capable de naviguer et d'interagir avec des sites web au nom des utilisateurs. Initialement lancé comme prototype de recherche en décembre 2024, Project Mariner a été considérablement amélioré pour fonctionner sur des machines virtuelles infonuagiques et peut désormais gérer jusqu'à dix tâches simultanément. Cette capacité est en cours d'intégration à l'API Gemini, permettant aux développeurs de créer des expériences numériques plus autonomes.

Ces annonces marquent ce que Google qualifie de « nouvelle phase du virage vers les plateformes d'IA », où des décennies de recherche deviennent une réalité concrète pour les individus, les entreprises et les communautés à travers le monde. Grâce à ces avancées, Google se positionne à l'avant-garde de la révolution de l'IA, offrant à la fois les modèles et l'infrastructure nécessaires pour propulser la prochaine génération d'applications intelligentes.

Source:

Latest News