OpenAI, en av världens största kunder till NVIDIAs grafikkort (GPU:er), har börjat testa Googles Tensor Processing Units (TPU:er) för att driva sina AI-system, inklusive ChatGPT. Detta sker i takt med att företagets beräkningskostnader ökar och behovet av mer kostnadseffektiva lösningar för den växande AI-verksamheten blir allt större.
Enligt branschanalytiker står inferens—processen där AI-modeller använder inlärd kunskap för att göra förutsägelser eller fatta beslut—nu för över 50 % av OpenAIs totala beräkningsbudget. TPU:er, särskilt äldre generationer, erbjuder betydligt lägre kostnad per inferens jämfört med NVIDIAs GPU:er, vilket gör dem attraktiva trots att de kanske inte når samma prestandatopp som de senaste NVIDIA-chippen.
"Äldre TPU:er saknar visserligen den högsta prestandan hos NVIDIAs senaste chip, men deras dedikerade arkitektur minimerar energislöseri och outnyttjade resurser, vilket gör dem mer kostnadseffektiva i stor skala," förklarar Charlie Dai, vice vd och chefsanalytiker på Forrester. Branschanalyser pekar på att Google kan tillhandahålla AI-beräkningskraft till ungefär 20 % av kostnaden jämfört med vad köpare av NVIDIAs toppmoderna GPU:er betalar, vilket innebär en 4–6 gånger högre kostnadseffektivitet.
OpenAI har dock tydliggjort att man inte har några omedelbara planer på att rulla ut TPU:er i stor skala. En talesperson uppgav till Reuters att företaget befinner sig i "tidiga tester med vissa av Googles TPU:er" men att det "för närvarande inte finns några planer på att använda dem i större omfattning." Denna försiktiga hållning speglar de betydande tekniska utmaningar som ett infrastrukturbyte innebär, då OpenAIs mjukvarustack i första hand är optimerad för GPU:er.
Utöver kostnadsaspekten innebär detta även en strategisk breddning av OpenAIs leverantörsbas bortom Microsoft, som varit exklusiv leverantör av datacenterinfrastruktur fram till januari 2025. OpenAI har redan inlett samarbeten med Oracle och CoreWeave inom Stargate-infrastrukturprogrammet och utvecklar dessutom en egen AI-processor, som väntas nå så kallad "tape-out" senare i år.
Konsekvenserna för marknaden för AI-hårdvara kan bli betydande. Om OpenAIs användning av TPU:er blir framgångsrik kan det validera Googles hårdvara som ett gångbart alternativ till NVIDIAs nära monopol på högpresterande AI-beräkningar. Det kan tvinga NVIDIA att förnya sig eller justera sina priser, samtidigt som nya konkurrensdynamiker uppstår mellan molnjättar som Google, Microsoft och Amazon i kampen om AI-infrastrukturens framtid.