menu
close

Inilunsad ng Vercel ang AI Cloud para Pabilisin ang Pagbuo ng mga Agent

Inilantad ng Vercel ang kanilang AI Cloud platform, na nagpapalawak sa kakayahan ng Frontend Cloud upang suportahan ang mga agentic AI workload gamit ang infrastructure-as-code na pamamaraan. Pinapayagan ng platform na ito ang mga development team na bumuo, mag-deploy, at mag-scale ng mga conversational AI frontend at autonomous agent nang hindi kinakailangan ng manwal na pag-configure o dagdag na resource overhead. Ang paglulunsad na ito ay dumating sa isang estratehikong panahon habang ang mga kakumpitensya tulad ng Anthropic ay naghihigpit ng mga limitasyon sa paggamit ng kanilang mga developer tool.
Inilunsad ng Vercel ang AI Cloud para Pabilisin ang Pagbuo ng mga Agent

Binago ng Vercel ang kanilang development platform sa paglulunsad ng AI Cloud, isang pinag-isang infrastructure na partikular na idinisenyo para sa mga AI-native na aplikasyon at mga workload na pinapatakbo ng agent.

Inanunsyo sa Vercel Ship 2025, ang AI Cloud platform ay nakabatay sa parehong mga prinsipyo na nagpasikat sa Frontend Cloud ng Vercel: ang infrastructure ay dapat lumitaw mula sa code, hindi mula sa manwal na pag-configure. Ang nagpapalakas sa AI Cloud ay ang framework-defined infrastructure na awtomatikong ginagawang tumatakbong cloud services ang application logic. Mahalaga ang pamamaraang ito lalo na ngayong dumarami ang mga AI agent na gumagawa at nagpapadala ng code.

Nagpakilala ang platform ng ilang mahahalagang bahagi upang i-optimize ang AI deployment. Kabilang dito ang AI SDK at AI Gateway para sa integrasyon sa humigit-kumulang 100 AI model mula sa mga provider gaya ng OpenAI, Anthropic, at xAI; Fluid compute na may Active CPU pricing para sa mataas na concurrency, mababang latency, at cost-efficient na AI execution; at suporta sa mga tool para sa autonomous na mga aksyon. Ang AI Gateway ay nagbibigay ng pinag-isang endpoint na nag-aalis ng vendor lock-in (pinapayagan ang mga developer na magpalit ng model gamit lamang ang isang linya ng code), observability para sa pagsubaybay ng latency at gastos, at failover capabilities na awtomatikong nagre-reroute ng mga request kapag nagka-downtime ang isang provider.

Tradisyonal na nahihirapan ang mga serverless platform sa I/O bound workload tulad ng AI inference at mga agent na kailangang mag-scale agad ngunit kadalasang idle sa pagitan ng mga operasyon. Nilulutas ito ng Fluid compute sa pamamagitan ng pag-alis sa one-to-one serverless model. Sa halip na mag-spin up ng hiwalay na instance para sa bawat invocation, matalinong ino-orchestrate ng Fluid compute ang resources sa bawat invocation, kaya't maraming sabayang request ang maaaring magbahagi ng underlying resources. Ayon sa mga team na gumagamit ng teknolohiyang ito, umabot hanggang 85% ang natipid sa gastos.

Para sa seguridad, nag-aalok ang Vercel Sandbox ng isolated at ephemeral na execution environment para sa hindi mapagkakatiwalaang code. Sinusuportahan nito ang Node.js at Python, kayang mag-scale hanggang daan-daang sabayang environment, at pinapayagan ang mga developer na mag-stream ng logs, mag-install ng dependencies, at kontrolin ang runtime behavior sa secure na mga container na may execution time na hanggang 45 minuto.

Ang paglulunsad na ito ay isang malaking hakbang sa ebolusyon ng platform ng Vercel, lalo na ngayong ang ibang AI provider tulad ng Anthropic ay naghihigpit ng mga limitasyon sa paggamit ng kanilang mga developer tool. Simula Hulyo 14, nagpatupad ang Anthropic ng di-inaasahang mahigpit na usage cap sa Claude Code—lalo na para sa mga heavy user ng kanilang $200/buwan na Max plan—na nakakatanggap ng malabong "Claude usage limit reached" na mensahe nang walang abiso. Sa pamamagitan ng AI Cloud, inilalagay ng Vercel ang sarili bilang pangunahing infrastructure provider sa mabilis na umuunlad na AI development ecosystem sa pamamagitan ng pagbibigay ng pinasimpleng solusyon para sa mga team na nagtatrabaho sa AI technologies.

Source: Aidevroundup

Latest News