Крупнейшие облачные провайдеры стремительно развивают стратегии по созданию собственных AI-чипов, что меняет конкурентный ландшафт инфраструктуры искусственного интеллекта.
Google, как компания с относительно высокой долей использования собственных чипов, начала массовое внедрение ориентированных на AI-инференс чипов TPU v6e, которые стали мейнстримом в первой половине 2025 года. TrendForce отмечает, что рост серверов Google в основном обусловлен проектами суверенного облака и расширением дата-центров в Юго-Восточной Азии. TPU v6e, также известный как Trillium, представляет собой значительный шаг вперёд в линейке AI-оборудования Google, обеспечивая 4,7-кратный прирост пиковой вычислительной мощности на чип по сравнению с TPU v5e, а также удвоенную ёмкость и пропускную способность памяти High Bandwidth Memory (HBM).
Amazon Web Services (AWS) сосредоточена на масштабировании собственной платформы Trainium v2 и параллельно разрабатывает несколько вариантов Trainium v3, массовое производство которых запланировано на 2026 год. Ожидается, что AWS станет лидером среди всех американских облачных провайдеров по поставкам собственных AI-чипов в этом году, удвоив объёмы 2024 года. Чип AWS Trainium2 обеспечивает до 4 раз большую производительность по сравнению с первым поколением Trainium, а инстансы Amazon EC2 Trn2 на базе Trainium2 специально созданы для генеративного ИИ и оптимизированы для обучения и внедрения моделей с сотнями миллиардов и даже триллионами параметров.
Oracle, в отличие от других крупных облачных провайдеров, делает больший акцент на закупке AI-серверов и серверов для in-memory баз данных (IMDB). В 2025 году Oracle планирует нарастить внедрение AI-серверной инфраструктуры и интегрировать свои ключевые облачные базы данных с AI-приложениями. Сооснователь Oracle Ларри Эллисон подчеркнул уникальное положение компании благодаря огромному объёму корпоративных данных, хранящихся в её базах данных. Последняя версия базы данных, Oracle 23ai, специально адаптирована для AI-нагрузок и является «единственной базой данных, которая может сделать все клиентские данные мгновенно доступными для всех популярных AI-моделей при полном сохранении конфиденциальности клиентов».
Тенденция к созданию собственных AI-чипов — это стратегический поворот для облачных провайдеров, стремящихся оптимизировать производительность, снизить издержки и уменьшить зависимость от сторонних поставщиков. Такие ускорители, как AWS Trainium и Google TPU, напрямую конкурируют с GPU NVIDIA A100/H100, но выделяются бесшовной интеграцией с облаком, предсказуемым ценообразованием и оптимизированной инфраструктурой.
По последнему анализу TrendForce, крупнейшие североамериканские облачные провайдеры остаются основными драйверами роста рынка AI-серверов, при этом стабильный спрос также поддерживается дата-центрами второго уровня и проектами суверенного облака на Ближнем Востоке и в Европе. Несмотря на геополитическую напряжённость и экспортные ограничения США, влияющие на китайский рынок, глобальные поставки AI-серверов, по прогнозам, вырастут на 24,3% в годовом выражении. Такой уверенный рост подчеркивает, что искусственный интеллект становится центральным элементом облачных сервисов и стимулирует значительные инвестиции в инфраструктуру по всей отрасли.