menu
close

OpenAI dywersyfikuje strategię chipową, precyzuje testy TPU Google

OpenAI potwierdziło, że testuje jednostki przetwarzania tensorowego (TPU) Google, ale nie planuje ich wdrożenia na szeroką skalę w najbliższym czasie. Lider AI aktywnie wykorzystuje układy GPU Nvidii oraz chipy AMD, aby sprostać rosnącym wymaganiom obliczeniowym, jednocześnie rozwijając własne, dedykowane układy scalone. Ta strategiczna dywersyfikacja podkreśla kluczowe znaczenie infrastruktury sprzętowej w konkurencyjnym krajobrazie sztucznej inteligencji.
OpenAI dywersyfikuje strategię chipową, precyzuje testy TPU Google

OpenAI doprecyzowało swoje stanowisko w sprawie chipów AI Google, informując, że choć prowadzone są wstępne testy jednostek przetwarzania tensorowego (TPU) Google, nie ma obecnie planów ich wdrożenia na szeroką skalę.

30 czerwca rzecznik OpenAI odniósł się do doniesień sugerujących, że firma zamierza wykorzystywać autorskie chipy Google do obsługi swoich produktów. Wyjaśnienie pojawiło się po wcześniejszych informacjach, według których OpenAI rozpoczęło wynajem TPU Google za pośrednictwem Google Cloud, by potencjalnie obniżyć koszty obliczeń inferencyjnych, które mają pochłaniać ponad 50% budżetu obliczeniowego firmy.

Lider AI realizuje wielotorową strategię chipową, by sprostać lawinowo rosnącym potrzebom obliczeniowym. Obecnie OpenAI w dużej mierze polega na GPU Nvidii, które dominują około 80% rynku chipów AI. Firma aktywnie wdraża jednak również układy AI AMD do swojej infrastruktury. W czerwcu 2025 roku, podczas wydarzenia AMD Advancing AI, CEO OpenAI Sam Altman pojawił się u boku CEO AMD Lisy Su, potwierdzając wdrożenie chipów AMD MI300X oraz zaangażowanie w rozwój nadchodzących platform serii MI400.

Równolegle OpenAI poczyniło znaczne postępy w pracach nad własnym, dedykowanym chipem AI. Zespół inżynierów firmy, kierowany przez byłego szefa TPU Google Richarda Ho, liczy już około 40 osób i współpracuje z Broadcomem. Projekt autorskiego układu scalonego ma osiągnąć w tym roku kluczowy etap "tape-out", a masowa produkcja jest planowana na 2026 rok w Taiwan Semiconductor Manufacturing Company (TSMC).

Zdywersyfikowane podejście OpenAI do infrastruktury sprzętowej odzwierciedla strategiczne znaczenie hardware'u w wyścigu AI. Ponieważ trenowanie i uruchamianie coraz bardziej zaawansowanych modeli AI wymaga ogromnych zasobów obliczeniowych, firmy dążą do optymalizacji wydajności przy jednoczesnym kontrolowaniu kosztów i zależności w łańcuchu dostaw. Dzięki partnerom infrastrukturalnym takim jak Microsoft, Oracle i CoreWeave, OpenAI stara się utrzymać technologiczną przewagę, jednocześnie mierząc się z finansowymi wyzwaniami skalowania systemów AI.

Source: Reuters

Latest News