menu
close

Гіганти хмарних технологій прискорюють гонку впровадження власних AI-чипів

Google розпочала масове впровадження своїх чипів TPU v6e для AI-інференсу, які стали мейнстрімом у першій половині 2025 року. Тим часом AWS зосереджена на масштабуванні платформи Trainium v2 та розробці кількох варіантів Trainium v3 для виробництва у 2026 році. Очікується, що цього року AWS очолить усіх американських хмарних провайдерів за обсягами поставок власних AI-чипів. Ця тенденція свідчить про суттєві зміни: провідні хмарні компанії все активніше розробляють і впроваджують власні AI-акселератори замість повної залежності від сторонніх рішень.
Гіганти хмарних технологій прискорюють гонку впровадження власних AI-чипів

Великі хмарні провайдери стрімко розвивають стратегії створення власних AI-чипів, змінюючи конкурентний ландшафт AI-інфраструктури.

Як компанія з відносно високим рівнем впровадження власних чипів, Google розпочала масове впровадження своїх чипів TPU v6e, орієнтованих на AI-інференс, які стали мейнстрімом у першій половині 2025 року. TrendForce відзначає, що зростання серверного бізнесу Google переважно забезпечується суверенними хмарними проєктами та новими дата-центрами в Південно-Східній Азії. TPU v6e, також відомий як Trillium, став значним кроком уперед у портфоліо AI-обладнання Google, забезпечуючи 4,7-кратне зростання пікової обчислювальної потужності на чип порівняно з TPU v5e, а також подвоєну ємність і пропускну здатність пам’яті HBM.

Amazon Web Services (AWS) зосереджена на масштабуванні власної платформи Trainium v2 та розробці кількох варіантів Trainium v3, масове виробництво яких заплановано на 2026 рік. Очікується, що цього року AWS очолить усіх американських хмарних провайдерів за обсягами поставок власних AI-чипів, подвоївши показники 2024 року. Чип AWS Trainium2 забезпечує до 4 разів вищу продуктивність порівняно з Trainium першого покоління, а інстанси Amazon EC2 Trn2 на базі Trainium2 спеціально створені для генеративного AI та оптимізовані для навчання й розгортання моделей із сотнями мільярдів і навіть трильйонами параметрів.

Oracle, на відміну від інших великих хмарних провайдерів, більше зосереджена на закупівлі AI-серверів та серверів оперативних баз даних (IMDB). У 2025 році Oracle планує активізувати розгортання AI-інфраструктури та інтегрувати свої основні хмарні бази даних із AI-додатками. Співзасновник Oracle Ларрі Еллісон підкреслює унікальність компанії завдяки величезному обсягу корпоративних даних у її базах. Остання версія бази даних — Oracle 23ai — спеціально адаптована до потреб AI-навантажень і є "єдиною базою даних, яка може миттєво надати всі дані клієнта всім популярним AI-моделям із повним збереженням приватності клієнта".

Тенденція до створення власних AI-чипів є стратегічним кроком для хмарних провайдерів, які прагнуть оптимізувати продуктивність, зменшити витрати та залежність від сторонніх постачальників. Такі власні акселератори, як AWS Trainium і Google TPU, напряму конкурують із GPU NVIDIA A100/H100, але вирізняються безшовною інтеграцією у хмару, передбачуваним ціноутворенням і оптимізованою інфраструктурою.

Згідно з останнім аналізом TrendForce, основними рушіями зростання ринку AI-серверів залишаються великі північноамериканські хмарні провайдери, а стабільний попит також підтримується дата-центрами другого рівня та суверенними хмарними проєктами на Близькому Сході та в Європі. Незважаючи на геополітичну напругу та експортні обмеження США, що впливають на китайський ринок, глобальні поставки AI-серверів, за прогнозами, зростуть на 24,3% у річному вимірі. Це динамічне зростання підкреслює, що AI стає центральною складовою хмарних сервісів і стимулює значні інвестиції в інфраструктуру по всій галузі.

Source:

Latest News