menu
close

OpenAI korzysta z TPU Google – strategiczny zwrot od układów Nvidia

OpenAI rozpoczęło wynajem jednostek Tensor Processing Unit (TPU) od Google, aby zasilać ChatGPT i inne swoje produkty, co stanowi pierwsze znaczące wykorzystanie chipów innych niż Nvidia przez lidera AI. To zaskakujące partnerstwo pomiędzy konkurentami pojawia się w momencie, gdy OpenAI dąży do dywersyfikacji swojej infrastruktury obliczeniowej poza centra danych Microsoftu. Firma liczy, że oparte na chmurze TPU Google pozwolą obniżyć koszty inferencji przy zachowaniu wydajności dla szybko rosnących usług AI.
OpenAI korzysta z TPU Google – strategiczny zwrot od układów Nvidia

W istotnym zwrocie dla branży sztucznej inteligencji OpenAI zaczęło wykorzystywać jednostki Tensor Processing Unit (TPU) od Google do obsługi ChatGPT oraz innych swoich produktów AI – wynika z informacji uzyskanych od osób zaznajomionych ze sprawą.

To pierwszy raz, gdy OpenAI w znaczący sposób włącza do swojej infrastruktury chipy inne niż Nvidia. Dotychczas firma była jednym z największych na świecie nabywców procesorów graficznych (GPU) Nvidia, wykorzystywanych zarówno do trenowania modeli AI, jak i do obliczeń inferencyjnych – czyli procesu, w którym modele dokonują predykcji na podstawie nowych danych.

To zaskakujące partnerstwo dwóch czołowych konkurentów w branży AI sygnalizuje strategiczne działania OpenAI na rzecz dywersyfikacji zasobów obliczeniowych poza platformę chmurową Azure od Microsoftu. Choć Microsoft pozostaje największym inwestorem OpenAI i głównym dostawcą infrastruktury, w ostatnich miesiącach relacje między firmami wykazują oznaki napięć, ponieważ OpenAI dąży do większej niezależności.

Dla Google to umowa o dużym znaczeniu, ponieważ rozszerza zewnętrzną dostępność autorskich TPU, które dotąd były zarezerwowane głównie do użytku wewnętrznego. Chipy TPU Google są projektowane specjalnie do zadań uczenia maszynowego i mogą oferować przewagę wydajnościową w określonych zastosowaniach AI w porównaniu do uniwersalnych GPU. Google pozyskało już innych prestiżowych klientów, takich jak Apple, Anthropic oraz Safe Superintelligence – dwie firmy AI założone przez byłych liderów OpenAI.

OpenAI liczy, że wynajem TPU przez Google Cloud pomoże obniżyć koszty inferencji, które stają się coraz ważniejsze wraz z rozrostem bazy użytkowników ChatGPT do setek milionów. Źródła wskazują jednak, że Google nie udostępnia OpenAI swoich najpotężniejszych chipów TPU, zachowując tym samym przewagę konkurencyjną.

To wydarzenie wpisuje się w szerszą strategię dywersyfikacji infrastruktury OpenAI, obejmującą projekt Stargate o wartości 500 miliardów dolarów realizowany z SoftBankiem i Oracle, a także wielomiliardowe umowy z CoreWeave na dodatkowe moce obliczeniowe. Firma pracuje również nad własnym chipem, który ma zmniejszyć zależność od zewnętrznych dostawców sprzętu.

W miarę jak zapotrzebowanie na moc obliczeniową dla AI stale rośnie, a roczne koszty OpenAI mogą sięgnąć miliardów dolarów, to partnerstwo pokazuje, że nawet zacięci konkurenci w branży są gotowi współpracować, by sprostać ogromnym wymaganiom obliczeniowym napędzającym rozwój sektora.

Source:

Latest News