Najwięksi dostawcy usług chmurowych dynamicznie rozwijają strategie dotyczące własnych układów AI, przekształcając konkurencyjny krajobraz infrastruktury sztucznej inteligencji.
Jako firma o stosunkowo wysokim stopniu wdrożenia własnych chipów, Google rozpoczął masową implementację układów TPU v6e skoncentrowanych na inferencji AI, które stały się standardem w pierwszej połowie 2025 roku. TrendForce podkreśla, że wzrost liczby serwerów Google napędzany jest głównie przez projekty suwerennej chmury oraz nowe centra danych w Azji Południowo-Wschodniej. TPU v6e, znany również jako Trillium, stanowi znaczący postęp w portfolio sprzętowym AI Google, oferując 4,7-krotny wzrost szczytowej wydajności obliczeniowej na chip w porównaniu do TPU v5e oraz podwojoną pojemność i przepustowość pamięci High Bandwidth Memory (HBM).
Amazon Web Services (AWS) koncentruje się na skalowaniu własnej platformy Trainium v2 oraz opracowuje kilka wariantów Trainium v3, których masowa produkcja planowana jest na 2026 rok. AWS ma w tym roku przewodzić wszystkim amerykańskim dostawcom usług chmurowych pod względem liczby dostaw własnych układów AI, podwajając wolumeny z 2024 roku. Chip AWS Trainium2 zapewnia do 4 razy wyższą wydajność niż pierwsza generacja Trainium, a instancje Amazon EC2 Trn2 oparte na Trainium2 są dedykowane generatywnej AI i zoptymalizowane do trenowania oraz wdrażania modeli liczących setki miliardów do ponad biliona parametrów.
Oracle, w porównaniu do innych głównych dostawców chmury, skupia się bardziej na zakupie serwerów AI oraz serwerów baz danych in-memory (IMDB). W 2025 roku Oracle planuje zwiększyć wdrożenia infrastruktury serwerów AI oraz zintegrować swoje kluczowe usługi bazodanowe w chmurze z aplikacjami AI. Współzałożyciel Oracle, Larry Ellison, podkreślił unikalną pozycję firmy wynikającą z ogromnej ilości danych przedsiębiorstw przechowywanych w jej bazach. Najnowsza wersja bazy danych, Oracle 23ai, została specjalnie dostosowana do potrzeb obciążeń AI i jest „jedyną bazą danych, która może natychmiast udostępnić wszystkie dane klienta wszystkim popularnym modelom AI, przy pełnym zachowaniu prywatności klienta”.
Trend rozwoju własnych układów AI stanowi strategiczny zwrot dla dostawców chmury, którzy chcą zoptymalizować wydajność, jednocześnie ograniczając koszty i zależność od zewnętrznych dostawców. Własne akceleratory, takie jak AWS Trainium czy Google TPU, konkurują bezpośrednio z układami NVIDIA A100/H100, ale wyróżniają się płynną integracją z chmurą, przewidywalnym modelem cenowym oraz zoptymalizowaną infrastrukturą.
Według najnowszej analizy TrendForce, główni północnoamerykańscy dostawcy chmury pozostają kluczowymi motorami wzrostu rynku serwerów AI, a stabilny popyt wspierają także centra danych drugiego poziomu oraz projekty suwerennej chmury na Bliskim Wschodzie i w Europie. Pomimo napięć geopolitycznych i amerykańskich ograniczeń eksportowych wpływających na rynek chiński, globalne dostawy serwerów AI mają wzrosnąć rok do roku o 24,3%. Ten dynamiczny wzrost podkreśla, jak AI staje się centralnym elementem oferty usług chmurowych i napędza znaczące inwestycje infrastrukturalne w całej branży.