menu
close

OpenAI testar Googles TPU: utmanar ökande kostnader för AI-inferens

OpenAI har påbörjat tester med Googles Tensor Processing Units (TPU:er) i jakten på alternativ för att hantera de snabbt stigande kostnaderna för AI-inferens, som nu står för över 50 % av företagets beräkningsbudget. Även om detta inte innebär en omedelbar storskalig utrullning markerar det ett strategiskt skifte: OpenAI använder för första gången i betydande grad hårdvara som inte kommer från NVIDIA och signalerar en minskad exklusivitet gentemot Microsofts infrastruktur. Utforskningen kan komma att omforma AI-marknaden för hårdvara genom att utmana NVIDIAs dominans och skapa nya konkurrensdynamiker bland de stora teknikleverantörerna.
OpenAI testar Googles TPU: utmanar ökande kostnader för AI-inferens

OpenAI, en av världens största kunder till NVIDIAs grafikkort (GPU:er), har börjat testa Googles Tensor Processing Units (TPU:er) för att driva sina AI-system, inklusive ChatGPT. Detta sker i takt med att företagets beräkningskostnader ökar och behovet av mer kostnadseffektiva lösningar för den växande AI-verksamheten blir allt större.

Enligt branschanalytiker står inferens—processen där AI-modeller använder inlärd kunskap för att göra förutsägelser eller fatta beslut—nu för över 50 % av OpenAIs totala beräkningsbudget. TPU:er, särskilt äldre generationer, erbjuder betydligt lägre kostnad per inferens jämfört med NVIDIAs GPU:er, vilket gör dem attraktiva trots att de kanske inte når samma prestandatopp som de senaste NVIDIA-chippen.

"Äldre TPU:er saknar visserligen den högsta prestandan hos NVIDIAs senaste chip, men deras dedikerade arkitektur minimerar energislöseri och outnyttjade resurser, vilket gör dem mer kostnadseffektiva i stor skala," förklarar Charlie Dai, vice vd och chefsanalytiker på Forrester. Branschanalyser pekar på att Google kan tillhandahålla AI-beräkningskraft till ungefär 20 % av kostnaden jämfört med vad köpare av NVIDIAs toppmoderna GPU:er betalar, vilket innebär en 4–6 gånger högre kostnadseffektivitet.

OpenAI har dock tydliggjort att man inte har några omedelbara planer på att rulla ut TPU:er i stor skala. En talesperson uppgav till Reuters att företaget befinner sig i "tidiga tester med vissa av Googles TPU:er" men att det "för närvarande inte finns några planer på att använda dem i större omfattning." Denna försiktiga hållning speglar de betydande tekniska utmaningar som ett infrastrukturbyte innebär, då OpenAIs mjukvarustack i första hand är optimerad för GPU:er.

Utöver kostnadsaspekten innebär detta även en strategisk breddning av OpenAIs leverantörsbas bortom Microsoft, som varit exklusiv leverantör av datacenterinfrastruktur fram till januari 2025. OpenAI har redan inlett samarbeten med Oracle och CoreWeave inom Stargate-infrastrukturprogrammet och utvecklar dessutom en egen AI-processor, som väntas nå så kallad "tape-out" senare i år.

Konsekvenserna för marknaden för AI-hårdvara kan bli betydande. Om OpenAIs användning av TPU:er blir framgångsrik kan det validera Googles hårdvara som ett gångbart alternativ till NVIDIAs nära monopol på högpresterande AI-beräkningar. Det kan tvinga NVIDIA att förnya sig eller justera sina priser, samtidigt som nya konkurrensdynamiker uppstår mellan molnjättar som Google, Microsoft och Amazon i kampen om AI-infrastrukturens framtid.

Source: Computerworld

Latest News