menu
close

Cloudoví giganti zrychlují závod v nasazování vlastních AI čipů

Google zahájil masové nasazení svých čipů TPU v6e určených pro AI inference, které se staly hlavním proudem v první polovině roku 2025. Mezitím se AWS zaměřuje na škálování platformy Trainium v2 a zároveň vyvíjí několik variant Trainium v3 pro výrobu v roce 2026. Očekává se, že AWS letos povede mezi americkými poskytovateli cloudových služeb v objemu dodávek vlastních AI čipů. Tento trend signalizuje zásadní posun, kdy hlavní cloudoví hráči stále více vyvíjejí a nasazují vlastní AI akcelerátory namísto spoléhání pouze na řešení třetích stran.
Cloudoví giganti zrychlují závod v nasazování vlastních AI čipů

Hlavní poskytovatelé cloudových služeb rychle posouvají své strategie v oblasti vlastních AI čipů a mění tak konkurenční prostředí AI infrastruktury.

Jako společnost s relativně vysokou mírou adopce vlastních čipů zahájil Google masové nasazení svých čipů TPU v6e zaměřených na AI inference, které se staly hlavním proudem v první polovině roku 2025. Společnost TrendForce zdůraznila, že růst serverů Googlu je tažen především projekty suverénních cloudů a novou kapacitou datových center v jihovýchodní Asii. TPU v6e, známý také jako Trillium, představuje významný pokrok v hardwarovém portfoliu Googlu pro AI, nabízí 4,7× vyšší špičkový výpočetní výkon na čip oproti TPU v5e a dvojnásobnou kapacitu i propustnost paměti High Bandwidth Memory (HBM).

Amazon Web Services (AWS) se zaměřuje na škálování vlastní platformy Trainium v2 a současně vyvíjí několik variant Trainium v3, jejichž sériová výroba je plánována na rok 2026. Očekává se, že AWS letos povede mezi americkými poskytovateli cloudových služeb v objemu dodávek vlastních AI čipů, přičemž zdvojnásobí objemy roku 2024. Čip AWS Trainium2 nabízí až 4× vyšší výkon než první generace Trainium, přičemž instance Amazon EC2 Trn2 založené na Trainium2 jsou speciálně navrženy pro generativní AI a optimalizovány pro trénování a nasazování modelů se stovkami miliard až bilionem+ parametrů.

Oracle se oproti ostatním hlavním poskytovatelům více zaměřuje na nákup AI serverů a serverů pro in-memory databáze (IMDB). V roce 2025 plánuje Oracle posílit nasazování AI serverové infrastruktury a integrovat své klíčové cloudové databázové služby s AI aplikacemi. Spoluzakladatel Larry Ellison zdůraznil jedinečnou pozici Oraclu díky obrovskému množství podnikových dat uložených v jeho databázích. Nejnovější verze databáze, Oracle 23ai, je speciálně přizpůsobena potřebám AI zátěží a je „jedinou databází, která dokáže okamžitě zpřístupnit veškerá zákaznická data všem populárním AI modelům při plném zachování soukromí zákazníků“.

Trend směrem k vlastním AI čipům představuje strategický obrat cloudových poskytovatelů, kteří chtějí optimalizovat výkon a zároveň snížit náklady a závislost na dodavatelích třetích stran. Tyto vlastní akcelerátory, jako jsou AWS Trainium a Google TPU, přímo konkurují GPU NVIDIA A100/H100, ale odlišují se bezproblémovou integrací do cloudu, předvídatelným cenovým modelem a optimalizovanou infrastrukturou.

Podle nejnovější analýzy TrendForce zůstávají hlavními tahouny růstu trhu AI serverů přední severoameričtí poskytovatelé cloudových služeb, přičemž stabilní poptávku podporují také datová centra druhé úrovně a projekty suverénních cloudů na Blízkém východě a v Evropě. Navzdory geopolitickému napětí a americkým exportním omezením, která ovlivňují čínský trh, se očekává, že globální dodávky AI serverů meziročně vzrostou o 24,3 %. Tento silný růst podtrhuje, jak se AI stává středobodem cloudových služeb a pohání významné investice do infrastruktury napříč celým odvětvím.

Source:

Latest News