menu
close

OpenAI Zet Google's TPU's In Voor Strategische Verschuiving Weg van Nvidia

OpenAI is begonnen met het inzetten van Google's Tensor Processing Units (TPU's) om ChatGPT en andere producten aan te drijven. Dit is de eerste keer dat het bedrijf op grote schaal gebruikmaakt van chips die niet van Nvidia afkomstig zijn. De samenwerking volgt op OpenAI's eerdere stap om zich te verbreden buiten Microsoft's Azure-cloud en betekent een grote overwinning voor Google Cloud. Het partnerschap speelt in op de groeiende rekenbehoefte van OpenAI en onderstreept Google's succes in het commercialiseren van zijn gespecialiseerde AI-hardware.
OpenAI Zet Google's TPU's In Voor Strategische Verschuiving Weg van Nvidia

In een belangrijke verschuiving binnen de AI-infrastructuur is OpenAI begonnen met het huren van Google's gespecialiseerde Tensor Processing Units (TPU's) om ChatGPT en andere AI-producten aan te drijven, zo melden bronnen die bekend zijn met de overeenkomst.

Het is voor het eerst dat OpenAI op betekenisvolle schaal gebruikmaakt van niet-Nvidia-chips voor zijn AI-werkzaamheden. Het bedrijf was tot nu toe een van 's werelds grootste afnemers van Nvidia's grafische verwerkingseenheden (GPU's), die de AI-chipmarkt domineren. OpenAI hoopt dat de via Google Cloud toegankelijke TPU's helpen om de kosten van inference computing te verlagen—het proces waarbij AI-modellen hun training inzetten om voorspellingen of beslissingen te maken.

Het partnerschap is een volgende stap in OpenAI's strategie om zijn rekeninfrastructuur te diversifiëren. Eerder dit jaar paste Microsoft—de grootste investeerder en primaire cloudleverancier van OpenAI—de exclusieve samenwerking aan. Microsoft heeft nu een 'recht van eerste weigering' op nieuwe cloudcapaciteit van OpenAI. Deze wijziging stelde OpenAI in staat om aanvullende partnerschappen aan te gaan, waaronder deze nieuwste samenwerking met Google.

Voor Google betekent het binnenhalen van OpenAI als klant dat de techgigant zijn eigen AI-technologie succesvol inzet om zijn cloudactiviteiten uit te breiden. De TPU's van Google, die voorheen vooral intern werden gebruikt, bieden specifieke voordelen voor bepaalde AI-toepassingen, zoals mogelijk een betere energie-efficiëntie en kosteneffectiviteit bij inference-taken in vergelijking met GPU's.

Toch kent de samenwerking zijn grenzen. Volgens berichten verhuurt Google niet zijn krachtigste TPU's aan OpenAI, waarmee het enkele concurrentiegrenzen tussen de twee AI-rivalen bewaakt. Deze selectieve benadering onderstreept de complexe dynamiek in de AI-sector, waar bedrijven vaak tegelijkertijd concurreren en samenwerken.

De deal komt op een moment van felle concurrentie om AI-rekenkracht, waarbij grote technologiebedrijven miljarden investeren in gespecialiseerde hardware. Google's nieuwste generatie TPU's, met de codenaam Trillium, biedt aanzienlijke prestatieverbeteringen ten opzichte van eerdere versies en is ontworpen om te voldoen aan de enorme rekenbehoefte van geavanceerde AI-modellen.

Source:

Latest News