menu
close

OpenAI adopte les TPU de Google dans un virage stratégique au-delà de Nvidia

OpenAI a commencé à utiliser les Tensor Processing Units (TPU) de Google pour alimenter ChatGPT et d'autres produits, marquant ainsi sa première adoption significative de puces autres que celles de Nvidia. Ce partenariat fait suite à la volonté d'OpenAI de diversifier ses services au-delà du cloud Azure de Microsoft et représente un succès majeur pour Google Cloud. Cette collaboration répond aux besoins croissants d'OpenAI en matière de puissance de calcul, tout en mettant en avant la réussite de Google dans la commercialisation de son matériel IA spécialisé.
OpenAI adopte les TPU de Google dans un virage stratégique au-delà de Nvidia

Dans un changement majeur pour l'infrastructure de l'intelligence artificielle, OpenAI a commencé à louer les Tensor Processing Units (TPU) spécialisés de Google pour alimenter ChatGPT et ses autres produits d'IA, selon des sources proches du dossier.

C'est la première fois qu'OpenAI utilise de manière significative des puces autres que celles de Nvidia pour ses charges de travail en IA. L'entreprise a historiquement été l'un des plus grands acheteurs mondiaux de GPU Nvidia, qui dominent le marché des puces pour l'IA. OpenAI espère que les TPU, auxquels elle accède via Google Cloud, permettront de réduire le coût de l'inférence — le processus par lequel les modèles d'IA utilisent leur apprentissage pour effectuer des prédictions ou prendre des décisions.

Ce partenariat s'inscrit dans la stratégie d'OpenAI visant à diversifier son infrastructure informatique. Plus tôt cette année, Microsoft — principal investisseur et fournisseur cloud d'OpenAI — a modifié leur accord d'exclusivité, passant à un modèle où Microsoft bénéficie d'un « droit de premier refus » sur toute nouvelle capacité cloud d'OpenAI. Ce changement a permis à OpenAI de nouer d'autres partenariats, dont le plus récent avec Google.

Pour Google, décrocher OpenAI comme client démontre comment le géant technologique a su exploiter sa technologie IA interne pour développer son activité cloud. Les TPU de Google, historiquement réservés à un usage interne, offrent des avantages spécifiques pour certaines charges de travail IA, notamment une meilleure efficacité énergétique et un rapport coût-efficacité potentiellement supérieur pour les tâches d'inférence par rapport aux GPU.

Cependant, la collaboration a ses limites. Selon des rapports, Google ne loue pas ses TPU les plus puissants à OpenAI, maintenant ainsi certaines barrières concurrentielles entre les deux rivaux de l'IA. Cette approche sélective illustre la complexité des dynamiques du secteur, où les entreprises sont souvent amenées à collaborer tout en restant concurrentes.

Cet accord intervient dans un contexte de forte concurrence pour les ressources de calcul en IA, les grands groupes technologiques investissant des milliards dans du matériel spécialisé. La dernière génération de TPU de Google, nom de code Trillium, offre des améliorations de performance significatives par rapport aux versions précédentes et a été conçue pour répondre aux énormes besoins de calcul des modèles d'IA avancés.

Source:

Latest News