menu
close

OpenAI testaa Googlen TPU-piirejä hillitäkseen kasvavia tekoälyn laskentakustannuksia

OpenAI on aloittanut Googlen Tensor Processing Unit (TPU) -piirien testaamisen etsiessään vaihtoehtoja kasvavien tekoälyn inferenssikustannusten hallintaan. Inferenssi vie nyt yli 50 % yhtiön laskentabudjetista. Vaikka kyseessä ei ole vielä laajamittainen käyttöönotto, tämä strateginen liike on OpenAI:n ensimmäinen merkittävä siirtymä pois NVIDIA-laitteistosta ja osoittaa irtautumista yksinomaisesta riippuvuudesta Microsoftin infrastruktuurista. Tutkimus voi muuttaa tekoälylaitteistojen markkinakenttää haastamalla NVIDIAn aseman ja luomalla uutta kilpailua suurten teknologiayritysten välille.
OpenAI testaa Googlen TPU-piirejä hillitäkseen kasvavia tekoälyn laskentakustannuksia

OpenAI, yksi maailman suurimmista NVIDIAn grafiikkaprosessorien (GPU) käyttäjistä, on aloittanut Googlen Tensor Processing Unit (TPU) -piirien testaamisen tekoälyjärjestelmissään, mukaan lukien ChatGPT. Tämä askel tulee tilanteessa, jossa yhtiö kohtaa kasvavia laskentakustannuksia ja etsii kustannustehokkaampia ratkaisuja laajeneviin tekoälytoimintoihinsa.

Alan analyytikkojen mukaan inferenssi – prosessi, jossa tekoälymallit käyttävät opittua tietoa ennusteiden tai päätösten tekemiseen – vie nyt yli puolet OpenAI:n laskentabudjetista. TPUn, erityisesti vanhempien sukupolvien, yksikkökustannus inferenssiä kohden on huomattavasti alhaisempi kuin NVIDIAn GPU-piireillä, mikä tekee niistä houkuttelevan vaihtoehdon, vaikka niiden huipputeho ei yltäisikään uusimpien NVIDIAn sirujen tasolle.

"Vaikka vanhemmilta TPU-piireiltä puuttuu uusimpien NVIDIAn sirujen huipputeho, niiden omistettu arkkitehtuuri minimoi energiahukan ja käyttämättömät resurssit, mikä tekee niistä mittakaavassa kustannustehokkaampia", selittää Charlie Dai, Forresterin varatoimitusjohtaja ja pääanalyytikko. Alan analyysien mukaan Google voi saada tekoälylaskentatehoa noin 20 %:n kustannuksella verrattuna niihin, jotka ostavat huipputason NVIDIAn GPU-piirejä – tämä tarkoittaa 4–6-kertaista kustannustehokkuusetua.

OpenAI on kuitenkin täsmentänyt, ettei sillä ole välittömiä suunnitelmia laajamittaiseen TPU-käyttöönottoon. Yhtiön tiedottaja kertoi Reutersille, että "käytämme varhaisessa vaiheessa joitakin Googlen TPU-piirejä", mutta tällä hetkellä "ei ole suunnitelmia ottaa niitä käyttöön laajassa mittakaavassa". Tämä varovainen lähestymistapa kuvastaa siirtymän teknisiä haasteita, sillä OpenAI:n ohjelmistopino on optimoitu ensisijaisesti GPU-piireille.

Kustannusten lisäksi tämä liike merkitsee strategista laskentainfrastruktuurin monipuolistamista Microsoftin ulkopuolelle, joka on toiminut yhtiön yksinomaisena datakeskusinfrastruktuurin tarjoajana tammikuuhun 2025 asti. OpenAI on jo tehnyt yhteistyötä Oraclen ja CoreWeaven kanssa Stargate-infrastruktuuriohjelmassaan ja kehittää omaa räätälöityä tekoälyprosessoriaan, jonka odotetaan saavuttavan tape-out-vaiheen myöhemmin tänä vuonna.

Tällä voi olla merkittäviä vaikutuksia tekoälylaitteistojen markkinoihin. Mikäli OpenAI:n TPU-kokeilu osoittautuu menestyksekkääksi, se voi vahvistaa Googlen laitteiston asemaa varteenotettavana vaihtoehtona NVIDIAn lähes monopoliasemalle korkean suorituskyvyn tekoälylaskennassa. Tämä voi painostaa NVIDIAa innovoimaan tai tarkistamaan hinnoitteluaan sekä luoda uutta kilpailua pilvipalveluntarjoajien – kuten Googlen, Microsoftin ja Amazonin – välille niiden tavoitellessa johtoasemaa tekoälyinfrastruktuurissa.

Source: Computerworld

Latest News