OpenAI a clarifié sa position concernant les puces d’intelligence artificielle de Google, indiquant que si des tests préliminaires des unités de traitement tensoriel (TPU) de Google sont en cours, aucun déploiement massif n’est envisagé à court terme.
Le 30 juin, un porte-parole d’OpenAI a réagi à des articles suggérant que l’entreprise utiliserait les puces maison de Google pour alimenter ses produits. Cette précision fait suite à des informations selon lesquelles OpenAI aurait commencé à louer des TPU via Google Cloud, dans le but de réduire potentiellement les coûts de calcul liés à l’inférence, lesquels représenteraient plus de 50 % du budget informatique d’OpenAI.
Le leader de l’IA poursuit une stratégie de puces multifacette afin de gérer ses besoins computationnels en forte croissance. Actuellement, OpenAI s’appuie principalement sur les GPU de Nvidia, qui dominent environ 80 % du marché des puces IA. Cependant, l’entreprise intègre activement les puces IA d’AMD à son infrastructure. Dans un développement significatif, le PDG d’OpenAI, Sam Altman, est apparu aux côtés de la PDG d’AMD, Lisa Su, lors de l’événement Advancing AI d’AMD en juin 2025, confirmant l’adoption par OpenAI des puces MI300X d’AMD et l’intérêt pour les futures plateformes de la série MI400.
Parallèlement, OpenAI progresse de manière significative dans le développement de sa propre puce IA sur mesure. L’équipe interne de l’entreprise, dirigée par Richard Ho, ancien responsable des TPU de Google, compte désormais environ 40 ingénieurs travaillant en collaboration avec Broadcom. Cette initiative de silicium personnalisé vise à atteindre le jalon critique du « tape-out » cette année, avec une production de masse prévue pour 2026 chez Taiwan Semiconductor Manufacturing Company (TSMC).
L’approche diversifiée d’OpenAI en matière d’infrastructure matérielle reflète l’importance stratégique du matériel dans la course à l’IA. Alors que l’entraînement et l’exécution de modèles d’IA de plus en plus sophistiqués nécessitent d’énormes ressources de calcul, les entreprises cherchent à optimiser les performances tout en maîtrisant les coûts et les dépendances de la chaîne d’approvisionnement. Avec des partenaires d’infrastructure tels que Microsoft, Oracle et CoreWeave, OpenAI se positionne pour maintenir son leadership technologique tout en relevant les défis financiers liés à la montée en puissance des systèmes d’IA.