menu
close

OpenAI testuje układy Google TPU, by przeciwdziałać rosnącym kosztom inferencji AI

OpenAI rozpoczęło testy jednostek Tensor Processing Units (TPU) firmy Google, szukając alternatyw dla zarządzania rosnącymi kosztami inferencji AI, które pochłaniają już ponad 50% budżetu obliczeniowego firmy. Choć nie oznacza to natychmiastowego wdrożenia na dużą skalę, ten strategiczny krok stanowi pierwsze poważne wykorzystanie sprzętu innego niż NVIDIA przez OpenAI i sygnalizuje odejście od wyłącznego polegania na infrastrukturze Microsoftu. To posunięcie może potencjalnie przekształcić rynek sprzętu AI, podważając dominację NVIDII i tworząc nowe, konkurencyjne relacje między największymi dostawcami technologii.
OpenAI testuje układy Google TPU, by przeciwdziałać rosnącym kosztom inferencji AI

OpenAI, jeden z największych na świecie klientów korzystających z procesorów graficznych (GPU) firmy NVIDIA, rozpoczęło testy jednostek Tensor Processing Units (TPU) firmy Google do zasilania swoich systemów AI, w tym ChatGPT. Decyzja ta jest odpowiedzią na rosnące wydatki na moc obliczeniową i poszukiwanie bardziej opłacalnych rozwiązań dla rozwijających się operacji AI.

Według analityków branżowych, inferencja — czyli proces, w którym modele AI wykorzystują zdobytą wiedzę do przewidywania lub podejmowania decyzji — pochłania już ponad 50% budżetu obliczeniowego OpenAI. TPU, zwłaszcza starszych generacji, oferują znacznie niższy koszt pojedynczej inferencji w porównaniu do GPU NVIDII, co czyni je atrakcyjną alternatywą, mimo że mogą nie dorównywać wydajnością najnowszym układom NVIDII.

„Chociaż starsze TPU nie osiągają szczytowej wydajności najnowszych chipów NVIDII, ich dedykowana architektura minimalizuje straty energii i bezczynność zasobów, co przekłada się na większą opłacalność w dużej skali” — wyjaśnia Charlie Dai, wiceprezes i główny analityk Forrester. Analizy branżowe sugerują, że Google może uzyskiwać moc obliczeniową AI za około 20% kosztów ponoszonych przez nabywców topowych GPU NVIDII, co oznacza przewagę efektywności kosztowej rzędu 4-6 razy.

Jednak OpenAI podkreśla, że nie planuje natychmiastowego wdrożenia TPU na szeroką skalę. Rzecznik firmy powiedział agencji Reuters, że obecnie prowadzone są „wczesne testy z wybranymi TPU Google”, ale „nie ma planów wdrożenia ich na dużą skalę”. Tak ostrożne podejście odzwierciedla poważne wyzwania techniczne związane z migracją infrastruktury, ponieważ stos oprogramowania OpenAI został zoptymalizowany głównie pod kątem GPU.

Poza kwestiami kosztowymi, ten ruch oznacza strategiczną dywersyfikację źródeł mocy obliczeniowej OpenAI poza Microsoftem, który do stycznia 2025 roku był wyłącznym dostawcą infrastruktury centrów danych firmy. OpenAI już wcześniej nawiązało współpracę z Oracle i CoreWeave w ramach programu infrastrukturalnego Stargate oraz rozwija własny, dedykowany procesor AI, którego prototyp (tape-out) ma powstać jeszcze w tym roku.

Konsekwencje dla rynku sprzętu AI mogą być znaczące. Jeśli OpenAI z powodzeniem wdroży TPU, może to potwierdzić, że sprzęt Google stanowi realną alternatywę dla niemal monopolistycznej pozycji NVIDII w obszarze wysokowydajnych obliczeń AI. Może to wywrzeć presję na NVIDIĘ, by przyspieszyła innowacje lub dostosowała ceny, a także stworzyć nowe, konkurencyjne relacje między dostawcami chmury, takimi jak Google, Microsoft i Amazon, którzy rywalizują o dominację w infrastrukturze AI.

Source: Computerworld

Latest News