menu
close

AWS et NVIDIA élargissent leur collaboration pour l’infrastructure IA de prochaine génération

Amazon Web Services (AWS) et NVIDIA ont annoncé une expansion majeure de leur partenariat stratégique afin de proposer une infrastructure IA avancée basée sur la nouvelle plateforme Blackwell de NVIDIA. AWS offrira la Superpuce GB200 Grace Blackwell et les GPU B100 Tensor Core de NVIDIA, permettant aux clients de concevoir et d’exécuter en temps réel des inférences sur des modèles de langage de plusieurs milliers de milliards de paramètres. Cette collaboration combine les capacités avancées de réseautique et de sécurité d’AWS avec la technologie GPU de pointe de NVIDIA pour accélérer l’innovation en intelligence artificielle générative.
AWS et NVIDIA élargissent leur collaboration pour l’infrastructure IA de prochaine génération

Amazon Web Services et NVIDIA renforcent leur partenariat stratégique de longue date afin de faire progresser les capacités de l’IA générative grâce à de nouvelles offres d’infrastructure. L’annonce, faite le 11 juin 2025, met l’accent sur l’intégration de la puissante plateforme GPU Blackwell de NVIDIA aux services infonuagiques d’AWS.

AWS sera parmi les premiers fournisseurs infonuagiques à offrir la Superpuce GB200 Grace Blackwell et les GPU B100 Tensor Core de NVIDIA. Ce matériel de prochaine génération est spécialement conçu pour répondre aux énormes besoins de calcul des charges de travail IA les plus avancées d’aujourd’hui.

« La collaboration étroite entre nos deux organisations remonte à plus de 13 ans, alors que nous avons lancé ensemble la toute première instance infonuagique GPU au monde sur AWS. Aujourd’hui, nous proposons la plus vaste gamme de solutions GPU NVIDIA pour nos clients », a déclaré Adam Selipsky, chef de la direction d’AWS. Il a souligné que le processeur Grace Blackwell de NVIDIA représente « une avancée majeure pour l’IA générative et l’informatique GPU ».

Le partenariat intègre le matériel et les logiciels d’IA de NVIDIA aux avantages de l’infrastructure AWS, notamment le système Nitro pour la virtualisation et la sécurité avancées, l’Elastic Fabric Adapter (EFA) pour un réseautage à l’échelle du pétaoctet, et Amazon EC2 UltraCluster pour le regroupement à très grande échelle. Ensemble, ces technologies permettent aux clients de concevoir et d’exécuter plus rapidement et plus sécuritairement des modèles de langage de plusieurs milliers de milliards de paramètres que les solutions précédentes.

L’architecture Blackwell de NVIDIA représente un bond en avant considérable dans les capacités informatiques de l’IA. La plateforme intègre six technologies transformatrices pour l’accélération du calcul, dont la puce la plus puissante au monde avec 208 milliards de transistors, fabriquée grâce à un procédé sur mesure 4NP de TSMC. Lorsqu’elle est déployée dans l’infrastructure AWS, la configuration GB200 NVL72 relie 72 GPU Blackwell et 36 CPU Grace grâce à la technologie NVLink de cinquième génération de NVIDIA.

Bien que la disponibilité initiale des systèmes propulsés par Blackwell sur AWS était prévue d’ici la fin de 2024, des défis de production ont repoussé cette échéance au début de 2025. Jensen Huang, PDG de NVIDIA, a confirmé que l’entreprise a réussi à lancer « une production à très grande échelle des superordinateurs IA Blackwell », générant des ventes de plusieurs milliards de dollars dès le premier trimestre de disponibilité.

Ce partenariat survient à un moment clé alors que la demande en infrastructure IA continue de croître dans tous les secteurs. En combinant leurs forces technologiques respectives, AWS et NVIDIA visent à maintenir leur position de chef de file dans le paysage en évolution rapide de l’IA, tout en offrant aux clients les outils nécessaires pour développer et déployer les applications IA de prochaine génération.

Source:

Latest News