OpenAI, l’un des plus grands clients mondiaux des unités de traitement graphique (GPU) de NVIDIA, a commencé à tester les Tensor Processing Units (TPU) de Google pour alimenter ses systèmes d’intelligence artificielle, y compris ChatGPT. Cette initiative intervient alors que l’entreprise fait face à des dépenses informatiques croissantes et cherche des solutions plus économiques pour ses opérations d’IA en pleine expansion.
Selon des analystes du secteur, l’inférence — le processus par lequel les modèles d’IA utilisent les connaissances acquises pour faire des prédictions ou prendre des décisions — représente désormais plus de 50 % du budget informatique d’OpenAI. Les TPU, en particulier les générations plus anciennes, offrent un coût par inférence nettement inférieur à celui des GPU NVIDIA, ce qui en fait une alternative attrayante malgré des performances de pointe potentiellement inférieures à celles des puces NVIDIA les plus récentes.
« Même si les anciens TPU n’atteignent pas les performances maximales des dernières puces Nvidia, leur architecture dédiée minimise le gaspillage d’énergie et les ressources inactives, ce qui les rend plus rentables à grande échelle », explique Charlie Dai, vice-président et analyste principal chez Forrester. Selon les analyses du secteur, Google pourrait obtenir une puissance de calcul IA pour environ 20 % du coût supporté par ceux qui achètent des GPU NVIDIA haut de gamme, ce qui impliquerait un avantage d’efficacité de 4 à 6 fois.
Cependant, OpenAI a précisé qu’il n’envisageait pas pour l’instant de déploiement massif des TPU. Un porte-parole a déclaré à Reuters que la société en est « aux premiers tests avec certains TPU de Google » mais qu’elle n’a « actuellement aucun projet de déploiement à grande échelle ». Cette approche prudente reflète les défis techniques importants liés à la transition de l’infrastructure, la pile logicielle d’OpenAI ayant été principalement optimisée pour les GPU.
Au-delà des considérations de coûts, cette démarche représente une diversification stratégique des sources de calcul d’OpenAI au-delà de Microsoft, qui était jusqu’en janvier 2025 son unique fournisseur d’infrastructure de centres de données. L’entreprise a déjà noué des partenariats avec Oracle et CoreWeave dans le cadre de son programme d’infrastructure Stargate et développe son propre processeur IA personnalisé, dont la première version devrait être finalisée plus tard cette année.
Les répercussions sur le marché du matériel IA pourraient être majeures. Si elle réussit, l’adoption des TPU par OpenAI pourrait valider le matériel de Google comme alternative crédible à la quasi-hégémonie de NVIDIA dans le calcul IA haute performance. Cela pourrait pousser NVIDIA à innover ou à revoir ses prix, tout en créant de nouvelles dynamiques concurrentielles entre les fournisseurs de cloud comme Google, Microsoft et Amazon, qui se disputent la domination de l’infrastructure IA.