NVIDIA valmistautuu vahvistamaan asemaansa tekoälysirujen markkinoilla julkaisemalla uuden Blackwell Ultra -arkkitehtuurin, joka on merkittävä päivitys aiemmin tänä vuonna esiteltyyn Blackwell-alustaan.
Vaikka NVIDIA on hallinnut tekoälyn koulutusmarkkinoita, yhtiö kohtaa kasvavaa kilpailua inferenssipuolella, jossa tekoälymalleja käytetään tuottamaan vastauksia kouluttamisen sijaan. Tekoälysovellusten monimutkaistuessa ja yleistyessä alan asiantuntijat ennustavat inferenssimarkkinoiden kasvavan merkittävästi lähivuosina, houkutellen kilpailijoita haastamaan NVIDIAn asemaa. Toisin kuin tekoälyn koulutus, joka vaatii valtavaa laskentatehoa koko datakeskuksen laajuudelta, inferenssityökuormat ovat monimuotoisempia ja niitä voidaan käsitellä erilaisilla erikoistuneilla laitteistoilla.
Blackwell Ultra -pohjaiset tuotteet tulevat kumppaneiden saataville vuoden 2025 jälkipuoliskolla. Suurimmat pilvipalveluntarjoajat, kuten Amazon Web Services, Google Cloud, Microsoft Azure ja Oracle Cloud Infrastructure, ovat ensimmäisten joukossa tarjoamassa Blackwell Ultra -pohjaisia instansseja, ja palvelinvalmistajat kuten Dell, HPE, Lenovo ja Supermicro seuraavat omilla toteutuksillaan.
Uusi arkkitehtuuri hyödyntää NVIDIAn toisen sukupolven Transformer Engineä ja räätälöityä Blackwell Tensor Core -teknologiaa, yhdistettynä TensorRT-LLM- ja NeMo Framework -innovaatioihin, nopeuttaakseen sekä inferenssiä että koulutusta suurilla kielimalleilla. Blackwell Ultra Tensor Core -ytimet tarjoavat kaksinkertaisen huomio-kerroksen (attention layer) kiihdytyksen ja 1,5-kertaisen tekoälylaskentatehon (FLOPS) verrattuna tavanomaisiin Blackwell-GPU:ihin.
NVIDIAn mukaan Blackwell Ultra -perhe yltää jopa 15 petaFLOPSin tiheään 4-bittiseen liukulukusuorituskykyyn ja jopa 288 GB HBM3e-muistiin sirua kohden. Tämä on erityisen merkittävää tekoälyn inferenssissä, joka on pääosin muistirajoitteinen työkuorma – mitä enemmän muistia, sitä suurempia malleja voidaan palvella. NVIDIAn hyperscale- ja HPC-liiketoiminnan johtaja Ian Buck kertoo, että Blackwell Ultra mahdollistaa päättelymallien tarjoamisen jopa 10-kertaisella läpimenolla aiempaan Hopper-sukupolveen verrattuna, lyhentäen vasteaikoja yli minuutista jopa kymmeneen sekuntiin.
NVIDIA kohtaa kasvavaa kilpailua AMD:ltä, joka on hiljattain julkaissut MI300-sarjan tekoälytyökuormille ja saanut jalansijaa yrityksiltä, jotka etsivät vaihtoehtoja NVIDIAn toimitusrajoitusten vuoksi. Vuonna 2025 AMD ilmoitti ostavansa tekoälylaitteisto- ja ohjelmistoinsinöörejä Untether AI:lta vahvistaakseen inferenssikyvykkyyksiään. Myös Amazon pyrkii hallitsemaan koko tekoälyinfrastruktuurin ketjua Graviton4- ja Project Rainierin Trainium-siruillaan, onnistuen kouluttamaan merkittäviä tekoälymalleja, kuten Claude 4:n, ilman NVIDIAn laitteistoa.
Haasteista huolimatta analyytikot ennustavat NVIDIAn datakeskusmyynnin kasvavan 200 miljardiin dollariin vuonna 2025, yhtiön säilyttäessä noin 80–85 %:n markkinaosuuden lähitulevaisuudessa. Yhtiön strategia Blackwell Ultran kanssa näyttää keskittyvän aseman turvaamiseen inferenssimarkkinoilla samalla, kun se jatkaa innovointia koulutuspuolella – mahdollisesti muuttaen oletusta siitä, että huippuluokan tekoälymallit olisivat sidottuja vain NVIDIAn laitteistoon.