menu
close

Гигантите в облачните услуги ускоряват надпреварата за внедряване на персонализирани AI чипове

Google започна масово внедряване на своите чипове TPU v6e за AI инференция, които станаха основни през първата половина на 2025 г. В същото време AWS се фокусира върху мащабирането на платформата Trainium v2 и разработва няколко варианта на Trainium v3 за производство през 2026 г., като се очаква AWS да оглави всички американски облачни доставчици по доставки на собствени AI чипове тази година. Тази тенденция бележи значителна промяна, тъй като големите облачни доставчици все по-често разработват и внедряват собствени AI ускорители вместо да разчитат само на външни решения.
Гигантите в облачните услуги ускоряват надпреварата за внедряване на персонализирани AI чипове

Водещите доставчици на облачни услуги бързо развиват стратегиите си за персонализирани AI чипове, променяйки конкурентната среда на AI инфраструктурата.

Като компания с относително висок дял на собствено разработени чипове, Google започна масово внедряване на AI чиповете си TPU v6e, фокусирани върху инференцията, които станаха основни през първата половина на 2025 г. TrendForce подчертава, че растежът на сървърите на Google се дължи основно на суверенни облачни проекти и нов капацитет на центрове за данни в Югоизточна Азия. TPU v6e, известен още като Trillium, представлява значителен напредък в AI хардуерното портфолио на Google, осигурявайки 4.7 пъти по-висока пикова изчислителна мощност на чип спрямо TPU v5e, с удвоен капацитет и пропускателна способност на High Bandwidth Memory (HBM).

Amazon Web Services (AWS) се фокусира върху мащабирането на собствената си платформа Trainium v2, като паралелно разработва няколко варианта на Trainium v3, планирани за масово производство през 2026 г. Очаква се AWS да оглави всички американски облачни доставчици по доставки на собствени AI чипове тази година, удвоявайки обемите си от 2024 г. Чипът AWS Trainium2 осигурява до 4 пъти по-висока производителност спрямо първото поколение Trainium, а базираните на Trainium2 инстанции Amazon EC2 Trn2 са специално създадени за генеративен AI и оптимизирани за обучение и внедряване на модели със стотици милиарди до трилион+ параметри.

В сравнение с другите големи облачни доставчици, Oracle е по-фокусиран върху закупуването на AI сървъри и сървъри за in-memory бази данни (IMDB). През 2025 г. Oracle планира да засили внедряването на AI сървърна инфраструктура и да интегрира основните си облачни бази данни с AI приложения. Съоснователят на Oracle Лари Елисън подчерта уникалната позиция на компанията, благодарение на огромното количество корпоративни данни, съхранявани в нейните бази данни. Последната версия на базата данни, Oracle 23ai, е специално пригодена за нуждите на AI натоварванията и е "единствената база данни, която може мигновено да предостави всички клиентски данни на всички популярни AI модели, като напълно запазва поверителността на клиентите".

Тенденцията към персонализирани AI чипове представлява стратегически завой за облачните доставчици, които търсят оптимизация на производителността, намаляване на разходите и зависимостта от външни доставчици. Тези персонализирани ускорители като AWS Trainium и TPU на Google директно конкурират NVIDIA A100/H100 GPU, но се отличават с безпроблемна интеграция в облака, предвидими цени и оптимизирана инфраструктура.

Според последния анализ на TrendForce, големите северноамерикански облачни доставчици остават основен двигател на растежа на пазара на AI сървъри, като стабилното търсене се подкрепя и от центрове за данни от второ ниво и суверенни облачни проекти в Близкия изток и Европа. Въпреки геополитическото напрежение и ограниченията за износ на САЩ, засягащи китайския пазар, глобалните доставки на AI сървъри се очаква да нараснат с 24.3% на годишна база. Този устойчив растеж подчертава как AI се превръща в централен елемент на облачните услуги и води до значителни инвестиции в инфраструктура в цялата индустрия.

Source:

Latest News