Dans un tournant majeur pour l'industrie de l'intelligence artificielle, OpenAI a commencé à utiliser les Tensor Processing Units (TPU) de Google pour alimenter ChatGPT et ses autres produits d'IA, selon des sources proches du dossier.
Il s'agit de la première fois qu'OpenAI intègre de manière significative des puces autres que celles de Nvidia dans son infrastructure. Jusqu'à présent, l'entreprise figurait parmi les plus grands acheteurs mondiaux de processeurs graphiques (GPU) Nvidia, utilisés à la fois pour l'entraînement des modèles d'IA et pour l'inférence, c'est-à-dire le processus par lequel les modèles font des prédictions à partir de nouvelles données.
Ce partenariat inattendu entre deux grands concurrents du secteur de l'IA traduit la volonté stratégique d'OpenAI de diversifier ses ressources informatiques au-delà de la plateforme cloud Azure de Microsoft. Si Microsoft reste le principal investisseur et fournisseur d'infrastructure d'OpenAI, la relation entre les deux sociétés s'est récemment tendue, OpenAI cherchant à gagner en autonomie.
Pour Google, cet accord représente une victoire importante, car il élargit la disponibilité externe de ses TPU développés en interne, jusque-là principalement réservés à un usage interne. Les puces TPU de Google sont spécialement conçues pour les tâches d'apprentissage automatique et peuvent offrir des avantages de performance pour certains usages de l'IA par rapport aux GPU généralistes. Google compte déjà parmi ses clients d'autres acteurs majeurs comme Apple, Anthropic et Safe Superintelligence—deux entreprises d'IA fondées par d'anciens dirigeants d'OpenAI.
OpenAI espère qu'en louant des TPU via Google Cloud, elle pourra réduire le coût de l'inférence, devenu un enjeu crucial alors que la base d'utilisateurs de ChatGPT atteint plusieurs centaines de millions de personnes. Cependant, des sources indiquent que Google ne fournit pas à OpenAI l'accès à ses TPU les plus puissants, conservant ainsi un certain avantage concurrentiel.
Ce développement s'inscrit dans la stratégie plus large de diversification de l'infrastructure d'OpenAI, qui comprend le projet Stargate à 500 milliards de dollars avec SoftBank et Oracle, ainsi que des accords de plusieurs milliards de dollars avec CoreWeave pour augmenter sa capacité de calcul. L'entreprise travaillerait également au développement de sa première puce interne afin de réduire sa dépendance aux fournisseurs de matériel externes.
Alors que les besoins en puissance de calcul pour l'IA ne cessent de croître—les coûts annuels d'OpenAI étant estimés à plusieurs milliards de dollars—ce partenariat illustre comment même les plus féroces concurrents du secteur sont prêts à collaborer pour répondre aux exigences massives qui font avancer l'industrie.