OpenAI, l’un des plus grands clients mondiaux des unités de traitement graphique (GPU) de NVIDIA, a commencé à tester les unités de traitement tensoriel (TPU) de Google pour alimenter ses systèmes d’IA, y compris ChatGPT. Cette initiative survient alors que l’entreprise fait face à des dépenses informatiques croissantes et cherche des solutions plus économiques pour soutenir l’expansion de ses opérations en IA.
Selon des analystes du secteur, l’inférence — le processus par lequel les modèles d’IA utilisent les connaissances acquises pour faire des prédictions ou prendre des décisions — représente maintenant plus de 50 % du budget informatique d’OpenAI. Les TPU, en particulier les générations plus anciennes, offrent un coût par inférence nettement inférieur à celui des GPU de NVIDIA, ce qui en fait une alternative attrayante, même si leur performance maximale n’égale pas celle des puces NVIDIA les plus récentes.
« Bien que les anciens TPU n’atteignent pas les performances maximales des nouvelles puces de Nvidia, leur architecture dédiée minimise le gaspillage d’énergie et les ressources inactives, ce qui les rend plus rentables à grande échelle », explique Charlie Dai, vice-président et analyste principal chez Forrester. Selon les analyses du secteur, Google pourrait obtenir de la puissance de calcul en IA à environ 20 % du coût encouru par ceux qui achètent des GPU NVIDIA haut de gamme, ce qui suggère un avantage d’efficacité de 4 à 6 fois sur le plan des coûts.
Cependant, OpenAI a précisé qu’elle n’a pas l’intention de déployer massivement les TPU dans l’immédiat. Un porte-parole a déclaré à Reuters que la société en est « aux premiers tests avec certains TPU de Google », mais qu’elle « n’a actuellement aucun plan pour les déployer à grande échelle ». Cette approche prudente reflète les défis techniques importants liés à la transition de l’infrastructure, puisque la pile logicielle d’OpenAI a été principalement optimisée pour les GPU.
Au-delà des considérations de coûts, cette démarche représente une diversification stratégique des sources de calcul d’OpenAI, au-delà de Microsoft, qui était jusqu’en janvier 2025 son fournisseur exclusif d’infrastructures de centres de données. L’entreprise a déjà établi des partenariats avec Oracle et CoreWeave dans le cadre de son programme d’infrastructure Stargate et développe également son propre processeur d’IA personnalisé, dont la première version devrait voir le jour plus tard cette année.
Les répercussions sur le marché du matériel d’IA pourraient être majeures. Si elle réussit, l’adoption des TPU par OpenAI pourrait valider le matériel de Google comme une alternative crédible à la quasi-monopole de NVIDIA dans le calcul haute performance pour l’IA. Cela pourrait pousser NVIDIA à innover ou à ajuster ses prix, tout en créant de nouvelles dynamiques concurrentielles entre les fournisseurs de services infonuagiques comme Google, Microsoft et Amazon, qui rivalisent pour dominer l’infrastructure de l’IA.