OpenAIはGoogle製AIチップに関する立場を明確にし、Googleのテンソルプロセッシングユニット(TPU)の初期テストを進めているものの、現時点で大規模展開の計画はないと発表した。
6月30日、OpenAIの広報担当者は、同社がGoogleの自社製チップを製品に活用するとの報道について説明した。この説明は、OpenAIがGoogle Cloudを通じてTPUのレンタルを開始し、推論計算コストの削減を図っているとの先行報道を受けてのものだった。推論コストはOpenAIの計算予算の50%以上を占めるとされている。
OpenAIは、急速に増大する計算需要に対応するため、多角的なチップ戦略を展開している。現在、同社はAIチップ市場の約80%を占めるNvidiaのGPUに大きく依存しているが、AMDのAIチップも積極的にインフラへ組み込んでいる。2025年6月には、OpenAIのサム・アルトマンCEOがAMDのリサ・スーCEOと共に「Advancing AI」イベントに登壇し、AMDのMI300Xチップの採用と、次世代MI400シリーズプラットフォームへの取り組みを明らかにした。
同時に、OpenAIは自社独自のAIチップ開発も大きく前進させている。元Google TPU責任者のリチャード・ホー氏率いる社内チームは約40名に拡大し、Broadcomと連携してカスタムシリコンの開発を進めている。この独自チップは今年中に重要な「テープアウト」段階に到達する見込みで、2026年には台湾積体電路製造(TSMC)で量産を開始する計画だ。
OpenAIの多様化したチップインフラ戦略は、AI競争におけるハードウェアの戦略的重要性を如実に示している。より高度なAIモデルの学習や運用には膨大な計算資源が必要となるため、各社はパフォーマンスの最適化とコスト・サプライチェーンの管理を両立しようとしている。Microsoft、Oracle、CoreWeaveなどのインフラパートナーと連携しつつ、OpenAIはAIシステムの大規模化に伴う財務的課題にも対応し、技術的リーダーシップの維持を目指している。