주요 클라우드 서비스 제공업체(CSP)들이 맞춤형 AI 칩 전략을 빠르게 추진하며 AI 인프라 경쟁 구도를 재편하고 있다.
자체 개발 칩 도입률이 상대적으로 높은 구글은 AI 추론에 특화된 TPU v6e 칩의 대량 배치를 시작했으며, 이 칩은 2025년 상반기부터 주류로 자리잡고 있다. 트렌드포스(TrendForce)는 구글 서버 성장의 주요 동력이 주권 클라우드 프로젝트와 동남아시아 내 신규 데이터센터 용량 확충에 있다고 강조했다. TPU v6e(코드명 트릴리움)는 구글의 AI 하드웨어 포트폴리오에서 중요한 진전을 의미하며, TPU v5e 대비 칩당 최대 연산 성능이 4.7배 향상되고, 고대역폭 메모리(HBM) 용량과 대역폭이 두 배로 늘어난 것이 특징이다.
아마존웹서비스(AWS)는 자체 개발한 Trainium v2 플랫폼의 확장에 집중하는 한편, 2026년 양산을 목표로 여러 Trainium v3 변형을 개발 중이다. 올해 AWS는 미국 내 모든 CSP 중 자체 AI 칩 출하량에서 선두를 달릴 것으로 예상되며, 2024년 대비 출하량이 두 배로 늘어날 전망이다. AWS Trainium2 칩은 1세대 Trainium 대비 최대 4배의 성능을 제공하며, Trainium2 기반의 Amazon EC2 Trn2 인스턴스는 생성형 AI에 최적화되어 수백억~수조 개 이상의 파라미터를 가진 모델의 학습 및 배포에 특화되어 있다.
오라클은 다른 주요 CSP와 달리 AI 서버 및 인메모리 데이터베이스(IMDB) 서버 구매에 더 집중하고 있다. 2025년 오라클은 AI 서버 인프라 배치를 강화하고, 핵심 클라우드 데이터베이스 서비스를 AI 애플리케이션과 통합할 계획이다. 오라클 공동 창업자 래리 엘리슨은 자사 데이터베이스에 저장된 방대한 엔터프라이즈 데이터 덕분에 오라클이 독보적 위치에 있다고 강조했다. 최신 버전 데이터베이스인 Oracle 23ai는 AI 워크로드 요구에 맞춰 설계됐으며, "모든 고객 데이터를 완벽한 프라이버시 보장 하에 모든 인기 AI 모델에 즉시 제공할 수 있는 유일한 데이터베이스"라고 밝혔다.
맞춤형 AI 칩 도입은 성능 최적화와 비용 절감, 그리고 외부 벤더 의존도 축소를 노리는 클라우드 사업자들의 전략적 전환을 의미한다. AWS Trainium, 구글 TPU 등 맞춤형 가속기는 엔비디아의 A100/H100 GPU와 직접 경쟁하면서도, 클라우드와의 원활한 통합, 예측 가능한 가격, 최적화된 인프라로 차별화되고 있다.
트렌드포스의 최신 분석에 따르면, 북미 주요 CSP가 AI 서버 시장 성장의 주된 동력으로 남아 있으며, 중동과 유럽의 2차 데이터센터 및 주권 클라우드 프로젝트도 꾸준한 수요를 뒷받침하고 있다. 미중 갈등 및 미국의 수출 규제로 중국 시장이 영향을 받고 있음에도, 글로벌 AI 서버 출하량은 전년 대비 24.3% 성장할 것으로 전망된다. 이러한 견고한 성장세는 AI가 클라우드 서비스의 핵심으로 자리잡으며 업계 전반에 걸쳐 대규모 인프라 투자를 견인하고 있음을 보여준다.