OpenAI a clarifié sa position concernant les puces d’intelligence artificielle de Google, affirmant que des tests préliminaires des unités de traitement tensoriel (TPU) de Google sont en cours, mais qu’il n’y a pas de plans immédiats pour un déploiement à grande échelle.
Le 30 juin, un porte-parole d’OpenAI a réagi à des informations selon lesquelles l’entreprise utiliserait les puces développées par Google pour alimenter ses produits. Cette clarification fait suite à des nouvelles précédentes indiquant qu’OpenAI avait commencé à louer les TPU de Google via Google Cloud, dans le but potentiel de réduire les coûts d’inférence, qui représenteraient plus de 50 % du budget de calcul d’OpenAI.
Le leader de l’IA poursuit une stratégie de puces diversifiée afin de répondre à la croissance exponentielle de ses besoins en calcul. Actuellement, OpenAI s’appuie largement sur les GPU de Nvidia, qui dominent environ 80 % du marché des puces pour l’IA. Toutefois, l’entreprise intègre activement les puces d’AMD à son infrastructure. Lors d’un développement notable, le PDG d’OpenAI, Sam Altman, est apparu aux côtés de la PDG d’AMD, Lisa Su, lors de l’événement Advancing AI d’AMD en juin 2025, confirmant l’adoption par OpenAI des puces MI300X d’AMD et l’intérêt pour les prochaines plateformes de la série MI400.
Parallèlement, OpenAI progresse de façon significative dans le développement de sa propre puce d’IA personnalisée. L’équipe interne de l’entreprise, dirigée par Richard Ho, ancien responsable des TPU chez Google, compte maintenant environ 40 ingénieurs qui collaborent avec Broadcom. Cette initiative de puce sur mesure devrait franchir le cap critique du « tape-out » cette année, avec une production de masse prévue pour 2026 chez Taiwan Semiconductor Manufacturing Company (TSMC).
L’approche diversifiée d’OpenAI en matière d’infrastructure matérielle reflète l’importance stratégique du matériel dans la course à l’IA. Comme l’entraînement et l’exécution de modèles d’IA de plus en plus sophistiqués exigent d’énormes ressources de calcul, les entreprises cherchent à optimiser la performance tout en gérant les coûts et les dépendances de la chaîne d’approvisionnement. Avec des partenaires d’infrastructure comme Microsoft, Oracle et CoreWeave, OpenAI se positionne pour maintenir son leadership technologique tout en relevant les défis financiers liés à la mise à l’échelle des systèmes d’IA.