menu
close

OpenAI、Nvidiaチップからの戦略的転換でGoogleのTPUを採用

OpenAIは、ChatGPTやその他の製品の運用にGoogleのTensor Processing Unit(TPU)のレンタルを開始し、AI業界のリーダーとして初めてNvidia以外のチップを本格的に利用することとなった。競合関係にある両社の意外な協業は、OpenAIがMicrosoftのデータセンター依存から脱却し、計算インフラの多様化を目指す動きの一環だ。Googleのクラウド型TPU活用により、急成長するAIサービスの性能を維持しつつ推論コストの削減を図る狙いがある。
OpenAI、Nvidiaチップからの戦略的転換でGoogleのTPUを採用

AI業界における大きな転換点として、OpenAIはChatGPTおよびその他のAI製品の運用にGoogleのTensor Processing Unit(TPU)を利用し始めたことが、関係者への取材で明らかになった。

この動きは、OpenAIがNvidia製以外のチップを本格的にインフラへ組み込む初の事例となる。これまで同社は、AIモデルの学習や推論計算(新たな情報に基づく予測処理)の両方で、世界最大級のNvidia製GPU購入企業であった。

競合する2社による今回の意外なパートナーシップは、OpenAIがMicrosoftのAzureクラウドプラットフォーム以外にも計算リソースを多様化しようとする戦略的な動きの表れだ。Microsoftは依然としてOpenAI最大の出資者かつ主要なインフラ提供者だが、近年OpenAIがより独立性を求める中で両社の関係には緊張も見られている。

Googleにとっても今回の契約は大きな成果となる。これまで社内利用に限定してきた自社開発TPUの外部提供を拡大する形で、AI向けに特化したカスタム設計のTPUは、汎用GPUと比べて特定のAIワークロードで優位性を発揮することがある。すでにAppleやAnthropic、Safe Superintelligence(いずれも元OpenAI幹部が設立したAI企業)など著名な顧客も獲得している。

OpenAIは、Google Cloud経由でTPUをレンタルすることで、ユーザー数が数億人規模に拡大したChatGPTなどの推論計算コストを抑える狙いだ。しかし、関係者によればGoogleは最先端のTPUチップへのアクセスはOpenAIに提供しておらず、一定の競争優位性を維持しているという。

この動きは、OpenAIが進めるインフラ多様化戦略の一環でもある。SoftBankやOracleと進める5,000億ドル規模の「Stargate」プロジェクトや、CoreWeaveとの数十億ドル規模の計算能力確保契約も含まれる。また、外部ハードウェアへの依存度を下げるため、初の自社開発チップも進行中と報じられている。

AI計算需要が急増し、OpenAIの年間コストが数十億ドル規模に達すると見込まれる中、AI業界の熾烈な競争相手同士であっても、巨大な計算リソース需要に応えるために協業する時代が到来していることを示す出来事となった。

Source:

Latest News