Vercel 通过推出 AI Cloud,彻底革新了其开发平台。这一统一基础设施专为 AI 原生应用和智能体驱动型工作负载而设计。
在 Vercel Ship 2025 大会上,AI Cloud 平台正式亮相。它延续了 Vercel Frontend Cloud 的核心理念:基础设施应由代码自动生成,而非手动配置。AI Cloud 的强大之处在于,框架定义的基础设施可自动将应用逻辑转化为实际运行的云服务。这一方式尤为关键,因为 AI 智能体正日益自动生成和部署代码。
该平台引入了多项关键组件以优化 AI 部署,包括 AI SDK 和 AI Gateway,可集成 OpenAI、Anthropic、xAI 等多家供应商的约 100 种 AI 模型;Fluid Compute 结合按需 CPU 计价,实现高并发、低延迟、成本高效的 AI 执行;以及支持自主操作的工具集。AI Gateway 提供统一的接入端点,实现零厂商锁定(开发者仅需一行代码即可切换模型)、可观测性(追踪延迟与成本)及自动故障转移(当某供应商宕机时自动重路由请求)。
传统无服务器平台在处理如 AI 推理等 I/O 密集型工作负载,以及需瞬时扩容但大部分时间处于空闲的智能体时,常常力不从心。Fluid Compute 通过打破一对一的无服务器模型来应对这一挑战。它不再为每次调用单独启动实例,而是智能编排计算资源,使多个并发请求共享底层资源。采用该技术的团队报告称,成本节省高达 85%。
在安全性方面,Vercel Sandbox 提供隔离、临时的执行环境以运行不受信任代码。它支持 Node.js 和 Python,可扩展至数百个并发环境,并允许开发者在安全容器中流式查看日志、安装依赖、控制运行时行为,单次执行最长可达 45 分钟。
此次发布标志着 Vercel 平台演进的重要里程碑,恰逢其他 AI 供应商(如 Anthropic)对开发者工具收紧使用限制。自 7 月 14 日起,Anthropic 对 Claude Code 实施了意外严格的使用上限,尤其影响到每月 200 美元 Max 套餐的重度用户,用户频繁遇到模糊的“Claude 使用限制已达”提示,且事先未收到任何通知。
Vercel AI Cloud 的推出,使公司在快速演进的 AI 开发生态中成为关键基础设施提供商,为 AI 技术团队带来更高效的开发与部署解决方案。