menu
close

OpenAI adopte les TPU de Google dans un virage stratégique au-delà de Nvidia

OpenAI a commencé à utiliser les unités de traitement tensoriel (TPU) de Google pour alimenter ChatGPT et d’autres produits, marquant ainsi sa première adoption significative de puces autres que celles de Nvidia. Ce partenariat fait suite à la volonté d’OpenAI de diversifier ses services au-delà d’Azure de Microsoft et représente un gain majeur pour Google Cloud. Cette collaboration répond à la croissance des besoins informatiques d’OpenAI tout en mettant en valeur la réussite de Google dans la commercialisation de son matériel spécialisé en IA.
OpenAI adopte les TPU de Google dans un virage stratégique au-delà de Nvidia

Dans un changement majeur pour l’infrastructure de l’IA, OpenAI a commencé à louer les unités de traitement tensoriel (TPU) spécialisées de Google pour alimenter ChatGPT et ses autres produits d’intelligence artificielle, selon des sources proches du dossier.

Il s’agit de la première fois qu’OpenAI utilise de façon significative des puces autres que celles de Nvidia pour ses charges de travail en IA. Historiquement, l’entreprise figurait parmi les plus grands acheteurs mondiaux d’unités de traitement graphique (GPU) de Nvidia, qui dominent le marché des puces pour l’IA. OpenAI espère que les TPU, accessibles via Google Cloud, l’aideront à réduire les coûts de l’inférence — le processus par lequel les modèles d’IA utilisent leur entraînement pour faire des prédictions ou prendre des décisions.

Ce partenariat s’inscrit dans la stratégie d’OpenAI visant à diversifier son infrastructure informatique. Plus tôt cette année, Microsoft — principal investisseur et fournisseur infonuagique d’OpenAI — a modifié leur entente exclusive, passant à un modèle dans lequel Microsoft détient un « droit de premier refus » sur toute nouvelle capacité infonuagique d’OpenAI. Ce changement a permis à OpenAI de conclure d’autres partenariats, dont celui-ci avec Google.

Pour Google, obtenir OpenAI comme client démontre comment le géant technologique a su tirer parti de sa technologie d’IA interne pour développer son offre infonuagique. Les TPU de Google, historiquement réservés à un usage interne, offrent des avantages spécifiques pour certaines charges de travail en IA, notamment une meilleure efficacité énergétique et une rentabilité accrue pour les tâches d’inférence comparativement aux GPU.

Cependant, la collaboration comporte des limites. Selon certains rapports, Google ne loue pas ses TPU les plus puissants à OpenAI, maintenant ainsi certaines barrières concurrentielles entre les deux rivaux de l’IA. Cette approche sélective illustre la complexité du secteur, où les entreprises sont souvent à la fois concurrentes et partenaires.

Cette entente survient dans un contexte de forte concurrence pour les ressources informatiques en IA, alors que les grandes entreprises technologiques investissent des milliards dans du matériel spécialisé. La dernière génération de TPU de Google, nom de code Trillium, offre des améliorations de performance significatives par rapport aux versions précédentes et est conçue pour répondre aux exigences massives des modèles d’IA avancés.

Source:

Latest News