Vercel a transformé sa plateforme de développement avec le lancement d’AI Cloud, une infrastructure unifiée conçue spécifiquement pour les applications natives d’IA et les charges de travail pilotées par des agents.
Annoncée lors de Vercel Ship 2025, la plateforme AI Cloud s’appuie sur les mêmes principes qui ont fait le succès du Frontend Cloud de Vercel : l’infrastructure doit émerger du code, et non d’une configuration manuelle. Ce qui rend AI Cloud puissant, c’est que l’infrastructure définie par les frameworks transforme automatiquement la logique applicative en services cloud opérationnels. Cette approche est particulièrement cruciale alors que les agents d’IA génèrent et déploient de plus en plus de code.
La plateforme introduit plusieurs composants clés pour optimiser le déploiement de l’IA. Parmi eux : AI SDK et AI Gateway pour intégrer près de 100 modèles d’IA issus de fournisseurs tels qu’OpenAI, Anthropic et xAI ; le calcul Fluid avec tarification Active CPU pour une exécution d’IA à forte concurrence, faible latence et coûts optimisés ; et des outils pour les actions autonomes. L’AI Gateway offre un point d’accès unifié permettant d’éviter l’enfermement propriétaire (les développeurs peuvent changer de modèle en une seule ligne de code), une observabilité pour suivre la latence et les coûts, ainsi que des capacités de basculement automatique en cas d’indisponibilité d’un fournisseur.
Les plateformes serverless traditionnelles peinent à gérer les charges de travail à forte contrainte d’E/S comme l’inférence IA et les agents qui doivent évoluer instantanément mais restent souvent inactifs entre deux opérations. Fluid compute répond à ce problème en rompant avec le modèle serverless un-à-un. Au lieu de lancer une instance séparée pour chaque invocation, il orchestre intelligemment les ressources de calcul entre les invocations, permettant à plusieurs requêtes simultanées de partager les ressources sous-jacentes. Les équipes utilisant cette technologie ont signalé jusqu’à 85 % d’économies sur les coûts.
Pour la sécurité, Vercel Sandbox fournit un environnement d’exécution isolé et éphémère pour le code non fiable. Il prend en charge Node.js et Python, évolue jusqu’à des centaines d’environnements simultanés, et permet aux développeurs de diffuser les logs, d’installer des dépendances et de contrôler le comportement du runtime dans des conteneurs sécurisés avec des temps d’exécution allant jusqu’à 45 minutes.
Ce lancement représente une avancée majeure dans l’évolution de la plateforme Vercel, à un moment où d’autres fournisseurs d’IA comme Anthropic renforcent les limites d’utilisation de leurs outils pour développeurs. Depuis le 14 juillet, Anthropic a imposé des plafonds d’utilisation inattendus sur Claude Code—impactant particulièrement les utilisateurs intensifs de l’offre Max à 200 $/mois—ceux-ci recevant des messages vagues du type « Limite d’utilisation Claude atteinte » sans préavis des changements. Avec AI Cloud, Vercel se positionne comme un acteur clé de l’infrastructure dans l’écosystème en pleine évolution du développement IA, en proposant une solution rationalisée pour les équipes travaillant avec ces technologies.