I et træk, der understreger de foranderlige dynamikker i kunstig intelligens-sektoren, har OpenAI sikret sig en banebrydende cloud-aftale med Google, en af selskabets primære konkurrenter på AI-området.
Aftalen, som blev afsluttet i maj efter måneders forhandlinger, vil give OpenAI yderligere computerkapacitet til at træne og drive sine stadig mere ressourcekrævende AI-modeller. Partnerskabet repræsenterer OpenAIs seneste forsøg på at diversificere sin infrastruktur ud over Microsoft Azure, som indtil januar 2025 havde været selskabets eksklusive cloud-leverandør.
Aftalen kommer på et kritisk tidspunkt for OpenAI, der for nylig har annonceret, at den årlige omsætning nu har nået 10 milliarder dollars per juni 2025 – en fordobling fra 5,5 milliarder dollars i december 2024. Med 500 millioner ugentlige aktive brugere og 3 millioner betalende erhvervskunder står virksomheden over for stigende pres for at skalere sin infrastruktur for at imødekomme den voksende efterspørgsel.
For Google Cloud er det et markant gennembrud at sikre sig OpenAI som kunde, på trods af den konkurrenceprægede spænding mellem selskaberne. ChatGPT er fortsat en af de største udfordringer for Googles dominans på søgemarkedet, mens Googles Gemini AI direkte konkurrerer med OpenAIs produkter. Ikke desto mindre har begge virksomheder prioriteret forretningsmæssige hensyn over konkurrence.
Partnerskabet følger i kølvandet på andre store OpenAI-infrastrukturinitiativer, herunder det 500 milliarder dollars store Stargate-projekt, som blev annonceret i januar 2025 i samarbejde med SoftBank og Oracle. Dette projekt har til formål at opføre enorme AI-datacentre på tværs af USA med en indledende investering på 100 milliarder dollars.
Brancheanalytikere peger på, at aftalen signalerer en bredere tendens, hvor AI-virksomheder vælger multi-cloud-strategier for at sikre tilstrækkelige computerressourcer og undgå afhængighed af enkelte leverandører. Efterhånden som træningen af AI-modeller bliver stadig mere ressourcekrævende, kan selv hårde konkurrenter ende med at dele infrastruktur for at imødekomme de ekstraordinære krav, som avanceret AI-udvikling stiller.