Principalii furnizori de servicii cloud avansează rapid în strategiile lor privind cipurile AI personalizate, remodelând peisajul competitiv al infrastructurii AI.
Ca o companie cu o rată relativ ridicată de adoptare a cipurilor dezvoltate intern, Google a început implementarea în masă a cipurilor sale TPU v6e, axate pe inferență AI, care au devenit mainstream în prima jumătate a anului 2025. TrendForce a subliniat că creșterea serverelor Google a fost determinată în principal de proiecte cloud suverane și de noi capacități de centre de date în Asia de Sud-Est. TPU v6e, cunoscut și sub numele de Trillium, reprezintă un progres semnificativ în portofoliul hardware AI al Google, oferind o creștere de 4,7 ori a performanței de calcul de vârf per cip față de TPU v5e, cu o capacitate și o lățime de bandă HBM (High Bandwidth Memory) dublate.
Amazon Web Services (AWS) se concentrează pe extinderea platformei sale Trainium v2 dezvoltate intern, în timp ce dezvoltă mai multe variante Trainium v3, programate pentru producție în masă în 2026. AWS este așteptat să conducă toți furnizorii americani de servicii cloud (CSP) în livrările de cipuri AI dezvoltate intern în acest an, dublând volumele din 2024. Cipul AWS Trainium2 oferă până la de patru ori performanța primei generații Trainium, iar instanțele Amazon EC2 Trn2 bazate pe Trainium2 sunt special concepute pentru AI generativ și optimizate pentru antrenarea și implementarea modelelor cu sute de miliarde până la peste un trilion de parametri.
Oracle, comparativ cu ceilalți mari furnizori CSP, se concentrează mai mult pe achiziția de servere AI și servere pentru baze de date in-memory (IMDB). În 2025, Oracle intenționează să accelereze implementarea infrastructurii de servere AI și să integreze serviciile sale principale de baze de date cloud cu aplicații AI. Cofondatorul Oracle, Larry Ellison, a subliniat poziția unică a companiei datorită volumului uriaș de date enterprise stocate în bazele sale de date. Cea mai recentă versiune a bazei de date, Oracle 23ai, este special adaptată pentru sarcinile AI și este „singura bază de date care poate pune instantaneu la dispoziția tuturor modelelor AI populare toate datele clienților, păstrând în același timp pe deplin confidențialitatea acestora”.
Tendința către cipuri AI personalizate reprezintă o schimbare strategică pentru furnizorii cloud care urmăresc să optimizeze performanța, reducând în același timp costurile și dependența de furnizori terți. Aceste acceleratoare personalizate, precum AWS Trainium și TPU-urile Google, concurează direct cu GPU-urile NVIDIA A100/H100, dar se diferențiază prin integrarea nativă în cloud, prețuri previzibile și infrastructură optimizată.
Potrivit celei mai recente analize TrendForce, principalii furnizori CSP din America de Nord rămân motoarele principale ale creșterii pieței de servere AI, cererea fiind susținută și de centrele de date de nivel 2 și proiectele cloud suverane din Orientul Mijlociu și Europa. În ciuda tensiunilor geopolitice și a restricțiilor de export impuse de SUA pieței chineze, livrările globale de servere AI sunt prognozate să crească cu 24,3% de la an la an. Această creștere robustă subliniază modul în care AI devine centrală în ofertele de servicii cloud și determină investiții semnificative în infrastructură la nivelul întregii industrii.