menu
close

Cloudoví giganti zrýchľujú preteky v nasadzovaní vlastných AI čipov

Google začal masovo nasadzovať svoje čipy TPU v6e určené na AI inferenciu, ktoré sa stali hlavným prúdom v prvej polovici roka 2025. Medzitým sa AWS sústreďuje na škálovanie svojej platformy Trainium v2 a vyvíja viacero variantov Trainium v3 pre výrobu v roku 2026. Očakáva sa, že AWS tento rok povedie medzi americkými poskytovateľmi cloudových služieb v objeme dodávok vlastných AI čipov. Tento trend signalizuje významný posun, keďže hlavní poskytovatelia cloudu čoraz viac vyvíjajú a nasadzujú vlastné AI akcelerátory namiesto výhradného spoliehania sa na riešenia tretích strán.
Cloudoví giganti zrýchľujú preteky v nasadzovaní vlastných AI čipov

Hlavní poskytovatelia cloudových služieb rýchlo napredujú vo svojich stratégiách vývoja vlastných AI čipov, čím zásadne menia konkurenčné prostredie AI infraštruktúry.

Ako spoločnosť s relatívne vysokou mierou adopcie vlastných čipov začal Google masovo nasadzovať svoje čipy TPU v6e zamerané na AI inferenciu, ktoré sa stali hlavným prúdom v prvej polovici roka 2025. TrendForce zdôrazňuje, že rast serverov Googlu je poháňaný najmä projektmi suverénneho cloudu a novou kapacitou dátových centier v juhovýchodnej Ázii. TPU v6e, známe aj ako Trillium, predstavuje významný pokrok v AI hardvérovom portfóliu Googlu, ponúka až 4,7-násobné zvýšenie špičkového výpočtového výkonu na čip v porovnaní s TPU v5e, pričom kapacita a priepustnosť pamäte High Bandwidth Memory (HBM) sú zdvojnásobené.

Amazon Web Services (AWS) sa zameriava na škálovanie svojej vlastnej platformy Trainium v2 a zároveň vyvíja viacero variantov Trainium v3, ktorých sériová výroba je naplánovaná na rok 2026. Očakáva sa, že AWS tento rok povedie medzi všetkými americkými CSP v objeme dodávok vlastných AI čipov, pričom zdvojnásobí objemy z roku 2024. Čip AWS Trainium2 dosahuje až 4-násobný výkon v porovnaní s prvou generáciou Trainium, pričom inštancie Amazon EC2 Trn2 založené na Trainium2 sú špeciálne navrhnuté pre generatívnu AI a optimalizované na trénovanie a nasadzovanie modelov so stovkami miliárd až biliónmi parametrov.

Oracle sa v porovnaní s ostatnými veľkými CSP viac zameriava na nákup AI serverov a serverov pre in-memory databázy (IMDB). V roku 2025 plánuje Oracle posilniť nasadzovanie AI serverovej infraštruktúry a integrovať svoje kľúčové cloudové databázové služby s AI aplikáciami. Spoluzakladateľ Oracle Larry Ellison zdôraznil jedinečnú pozíciu spoločnosti vďaka obrovskému množstvu podnikových dát uložených v jej databázach. Najnovšia verzia databázy, Oracle 23ai, je špeciálne prispôsobená potrebám AI záťaží a je „jedinou databázou, ktorá dokáže okamžite sprístupniť všetky zákaznícke dáta všetkým populárnym AI modelom, pričom plne zachováva súkromie zákazníkov“.

Trend smerom k vlastným AI čipom predstavuje strategický obrat pre cloudových poskytovateľov, ktorí sa snažia optimalizovať výkon a zároveň znižovať náklady a závislosť od dodávateľov tretích strán. Tieto vlastné akcelerátory ako AWS Trainium a Google TPU priamo konkurujú GPU NVIDIA A100/H100, no odlišujú sa bezproblémovou integráciou do cloudu, predvídateľným cenovým modelom a optimalizovanou infraštruktúrou.

Podľa najnovšej analýzy TrendForce zostávajú hlavní CSP v Severnej Amerike hlavnými hnacími silami rastu trhu AI serverov, pričom stabilný dopyt podporujú aj dátové centrá druhej úrovne a projekty suverénneho cloudu na Blízkom východe a v Európe. Napriek geopolitickému napätiu a americkým exportným obmedzeniam ovplyvňujúcim čínsky trh sa očakáva, že globálne dodávky AI serverov medziročne vzrastú o 24,3 %. Tento robustný rast podčiarkuje, ako sa AI stáva centrom cloudových služieb a poháňa významné investície do infraštruktúry naprieč celým odvetvím.

Source:

Latest News