menu
close

OpenAI Gebruikt Google's TPU's in Strategische Verschuiving Weg van Nvidia-chips

OpenAI is begonnen met het huren van Google's Tensor Processing Units (TPU's) om ChatGPT en andere producten aan te drijven. Dit markeert het eerste significante gebruik van niet-Nvidia-chips door de AI-leider. Deze verrassende samenwerking tussen concurrenten komt op het moment dat OpenAI zijn computerinfrastructuur wil diversifiëren buiten de datacenters van Microsoft. Het bedrijf hoopt dat de cloud-gebaseerde TPU's van Google de inferentiekosten kunnen verlagen, terwijl de prestaties voor de snelgroeiende AI-diensten behouden blijven.
OpenAI Gebruikt Google's TPU's in Strategische Verschuiving Weg van Nvidia-chips

In een belangrijke verschuiving binnen de AI-industrie is OpenAI begonnen met het inzetten van Google's Tensor Processing Units (TPU's) om ChatGPT en andere AI-producten te ondersteunen, aldus bronnen die bekend zijn met de overeenkomst.

Deze stap betekent de eerste keer dat OpenAI op grote schaal niet-Nvidia-chips in zijn infrastructuur opneemt. Tot nu toe was het bedrijf een van 's werelds grootste afnemers van Nvidia's grafische processors (GPU's), die zowel voor het trainen van AI-modellen als voor inferentiecomputing worden gebruikt—het proces waarbij modellen voorspellingen doen op basis van nieuwe informatie.

Deze verrassende samenwerking tussen twee grote AI-concurrenten onderstreept OpenAI's strategische inspanning om zijn computerbronnen te diversifiëren buiten het Azure-cloudplatform van Microsoft. Hoewel Microsoft nog steeds de grootste investeerder en primaire infrastructuurleverancier van OpenAI is, vertoont hun relatie de laatste maanden tekenen van spanning nu OpenAI naar meer onafhankelijkheid streeft.

Voor Google betekent de deal een belangrijke overwinning nu het de externe beschikbaarheid van zijn eigen TPU's uitbreidt, die voorheen vooral intern werden gebruikt. De TPU-chips van Google zijn speciaal ontworpen voor machine learning-taken en kunnen prestatievoordelen bieden voor bepaalde AI-workloads ten opzichte van algemene GPU's. Het bedrijf heeft al andere prominente klanten binnengehaald, waaronder Apple, Anthropic en Safe Superintelligence—twee AI-bedrijven opgericht door voormalige leiders van OpenAI.

OpenAI hoopt dat het huren van TPU's via Google Cloud zal helpen om de kosten van inferentiecomputing te verlagen, wat steeds belangrijker wordt nu het gebruikersaantal van ChatGPT is gegroeid tot honderden miljoenen. Bronnen geven echter aan dat Google OpenAI geen toegang geeft tot zijn krachtigste TPU-chips, waardoor het bedrijf een concurrentievoordeel behoudt.

Deze ontwikkeling maakt deel uit van OpenAI's bredere strategie om de infrastructuur te diversifiëren, waaronder het $500 miljard kostende Stargate-project met SoftBank en Oracle, en miljardencontracten met CoreWeave voor extra rekencapaciteit. Ook zou het bedrijf werken aan zijn eerste eigen chip om de afhankelijkheid van externe hardwareleveranciers te verminderen.

Nu de vraag naar AI-computing blijft stijgen en de jaarlijkse kosten van OpenAI naar verwachting in de miljarden dollars lopen, laat deze samenwerking zien dat zelfs felle concurrenten in de AI-sector bereid zijn samen te werken om te voldoen aan de enorme rekenkracht die de sector aandrijft.

Source:

Latest News