Vercel har transformeret sin udviklingsplatform med lanceringen af AI Cloud – en samlet infrastruktur designet specifikt til AI-native applikationer og agentdrevne arbejdsgange.
AI Cloud-platformen, der blev annonceret på Vercel Ship 2025, bygger på de samme principper, der gjorde Vercels Frontend Cloud succesfuld: Infrastruktur skal udspringe af kode, ikke manuel konfiguration. Det, der gør AI Cloud kraftfuld, er, at rammeværksdefineret infrastruktur automatisk omdanner applikationslogik til kørende cloud-tjenester. Denne tilgang er særligt vigtig, da AI-agenter i stigende grad genererer og leverer kode.
Platformen introducerer flere centrale komponenter for at optimere AI-udrulning. Disse inkluderer AI SDK og AI Gateway til integration med omkring 100 AI-modeller på tværs af udbydere som OpenAI, Anthropic og xAI; Fluid compute med Active CPU-prissætning for høj samtidighed, lav latenstid og omkostningseffektiv AI-eksekvering; samt værktøjsunderstøttelse til autonome handlinger. AI Gateway leverer et samlet endpoint, der muliggør nul leverandørlåsning (så udviklere kan udskifte modeller med blot én linje kode), observabilitet til at spore latenstid og omkostninger samt failover-funktioner, der automatisk omdirigerer forespørgsler, hvis en udbyder oplever nedetid.
Traditionelle serverløse platforme har svært ved I/O-tunge arbejdsgange som AI-inferens og agenter, der skal skalere øjeblikkeligt, men ofte forbliver inaktive mellem operationer. Fluid compute løser dette ved at bryde med én-til-én-serverless-modellen. I stedet for at starte separate instanser for hver kørsel, orkestrerer den intelligent beregning på tværs af kald, så flere samtidige forespørgsler kan dele underliggende ressourcer. Teams, der bruger denne teknologi, har rapporteret op til 85% besparelse på omkostninger.
For sikkerhed tilbyder Vercel Sandbox et isoleret, midlertidigt eksekveringsmiljø til utroværdig kode. Det understøtter Node.js og Python, skalerer til hundredvis af samtidige miljøer og gør det muligt for udviklere at streame logs, installere afhængigheder og styre runtime-adfærd i sikre containere med eksekveringstider op til 45 minutter.
Lanceringen markerer et betydeligt fremskridt i Vercels platformudvikling og sker på et tidspunkt, hvor andre AI-udbydere som Anthropic strammer brugen af deres udviklerværktøjer. Siden 14. juli har Anthropic indført uventet restriktive forbrugslofter på Claude Code – især for tunge brugere på deres $200/md Max-plan – hvor brugere oplever uklare beskeder om "Claude usage limit reached" uden forudgående varsel om ændringerne. Vercels AI Cloud positionerer virksomheden som en central infrastrukturudbyder i det hastigt udviklende AI-udviklingsøkosystem ved at tilbyde en strømlinet løsning til teams, der arbejder med AI-teknologier.