据知情人士透露,OpenAI 已开始使用谷歌的张量处理单元(TPU)为 ChatGPT 及其他 AI 产品提供算力支持,这一举措为 AI 行业带来了重大转变。
此次合作标志着 OpenAI 首次在其基础设施中大规模引入非英伟达芯片。此前,OpenAI 一直是全球最大的英伟达图形处理单元(GPU)采购方之一,相关芯片被用于 AI 模型的训练和推理计算——即模型基于新信息进行预测的过程。
作为两大 AI 竞争对手,此次意外合作凸显了 OpenAI 在计算资源方面寻求多元化、摆脱对微软 Azure 云平台依赖的战略意图。尽管微软仍是 OpenAI 最大的投资者和主要基础设施供应商,但随着 OpenAI 追求更大自主权,双方关系近几个月出现了一些紧张迹象。
对于谷歌而言,此次交易是其自研 TPU 芯片对外开放的重要突破。TPU 专为机器学习任务定制设计,在某些 AI 工作负载上相较通用 GPU 拥有性能优势。谷歌已吸引包括苹果、Anthropic 及 Safe Superintelligence(后两者均由前 OpenAI 高管创立)等知名客户。
OpenAI 希望通过租用谷歌云 TPU,降低推理计算成本。随着 ChatGPT 用户规模已达数亿,推理成本控制变得愈发关键。不过,消息人士称,谷歌并未向 OpenAI 提供其最强大的 TPU 芯片,依然保留一定竞争优势。
这一进展正值 OpenAI 推进基础设施多元化战略之际,包括与软银和甲骨文合作的 5000 亿美元 Stargate 项目,以及与 CoreWeave 达成的数十亿美元算力采购协议。另有报道称,OpenAI 也在研发自有芯片,以减少对外部硬件供应商的依赖。
随着 AI 计算需求持续激增,OpenAI 年度支出预计将达到数十亿美元。这一合作显示,即便是 AI 领域的激烈竞争者,也愿意携手应对推动行业前行的庞大算力需求。