I ett betydande skifte för AI-infrastruktur har OpenAI börjat hyra Googles specialiserade Tensor Processing Units (TPU:er) för att driva ChatGPT och andra AI-produkter, enligt källor med insyn i samarbetet.
Detta är första gången OpenAI på allvar använder andra chip än Nvidias för sina AI-arbetslaster. Företaget har historiskt varit en av världens största köpare av Nvidias grafikprocessorer (GPU:er), som dominerar marknaden för AI-chip. OpenAI hoppas att TPU:erna, som nås via Google Cloud, ska bidra till att sänka kostnaden för inferensberäkningar—processen där AI-modeller använder sin träning för att göra förutsägelser eller fatta beslut.
Partnerskapet är ytterligare ett steg i OpenAIs strategi att diversifiera sin beräkningsinfrastruktur. Tidigare i år ändrade Microsoft—OpenAIs största investerare och primära molnleverantör—deras exklusiva avtal till en modell där Microsoft har "första tjing" på ny molnkapacitet från OpenAI. Denna förändring möjliggjorde för OpenAI att söka fler samarbeten, däribland det senaste med Google.
För Google innebär det att vinna OpenAI som kund ett bevis på hur teknikjätten framgångsrikt har utnyttjat sin egen AI-teknologi för att växa sin molnverksamhet. Googles TPU:er, som tidigare främst använts internt, erbjuder särskilda fördelar för vissa AI-arbetslaster, inklusive potentiellt bättre energieffektivitet och kostnadseffektivitet för inferens jämfört med GPU:er.
Samarbetet har dock sina begränsningar. Enligt rapporter hyr Google inte ut sina allra kraftfullaste TPU:er till OpenAI, vilket innebär att vissa konkurrensgränser mellan de två AI-rivalerna kvarstår. Detta selektiva tillvägagångssätt belyser de komplexa relationerna inom AI-sektorn, där företag ofta både konkurrerar och samarbetar samtidigt.
Affären sker i en tid av intensiv konkurrens om AI-beräkningsresurser, där stora teknikbolag investerar miljardbelopp i specialiserad hårdvara. Googles senaste TPU-generation, med kodnamnet Trillium, erbjuder betydande prestandaförbättringar jämfört med tidigare versioner och är designad för att hantera de enorma beräkningskraven från avancerade AI-modeller.