Dans un changement majeur pour l’industrie de l’IA, OpenAI a commencé à utiliser les unités de traitement tensoriel (TPU) de Google pour alimenter ChatGPT et ses autres produits d’intelligence artificielle, selon des sources proches du dossier.
Il s’agit de la première fois qu’OpenAI intègre de façon significative des puces autres que celles de Nvidia dans son infrastructure. Jusqu’à présent, l’entreprise était l’un des plus grands acheteurs mondiaux de processeurs graphiques (GPU) de Nvidia, utilisés tant pour l’entraînement des modèles d’IA que pour l’inférence — le processus par lequel les modèles font des prédictions à partir de nouvelles données.
Ce partenariat inattendu entre deux grands concurrents de l’IA témoigne de la volonté stratégique d’OpenAI de diversifier ses ressources informatiques au-delà de la plateforme infonuagique Azure de Microsoft. Bien que Microsoft demeure le principal investisseur et fournisseur d’infrastructure d’OpenAI, leur relation a montré des signes de tension ces derniers mois alors qu’OpenAI cherche à gagner en autonomie.
Pour Google, cette entente représente une victoire importante alors que l’entreprise élargit l’accès externe à ses TPU maison, auparavant réservés à un usage interne. Les puces TPU de Google sont conçues sur mesure pour les tâches d’apprentissage automatique et peuvent offrir des avantages de performance pour certains types de charges de travail en IA, comparativement aux GPU polyvalents. Google compte déjà parmi ses clients d’envergure Apple, Anthropic et Safe Superintelligence — deux entreprises d’IA fondées par d’anciens dirigeants d’OpenAI.
OpenAI espère que la location de TPU via Google Cloud permettra de réduire le coût de l’inférence, un enjeu de plus en plus crucial alors que la base d’utilisateurs de ChatGPT atteint des centaines de millions de personnes. Toutefois, des sources indiquent que Google ne fournit pas à OpenAI l’accès à ses puces TPU les plus puissantes, conservant ainsi un certain avantage concurrentiel.
Cette évolution s’inscrit dans la stratégie plus large de diversification de l’infrastructure d’OpenAI, qui comprend le projet Stargate de 500 milliards de dollars avec SoftBank et Oracle, ainsi que des ententes de plusieurs milliards de dollars avec CoreWeave pour une capacité informatique supplémentaire. L’entreprise développerait également sa première puce maison afin de réduire sa dépendance envers les fournisseurs de matériel externes.
Alors que la demande en puissance de calcul pour l’IA ne cesse de croître — les coûts annuels d’OpenAI étant estimés à plusieurs milliards de dollars — ce partenariat démontre que même les plus féroces concurrents du secteur sont prêts à collaborer pour répondre aux besoins massifs qui propulsent l’industrie.