menu
close

R1 Upgrade ng DeepSeek, Hinahamon ang Malalaking AI sa Pinahusay na Pangangatwiran

Inilabas ng Chinese AI startup na DeepSeek ang R1-0528, isang malaking pag-upgrade sa kanilang open-source reasoning model na ngayon ay kayang tapatan ang mga proprietary na modelo mula sa OpenAI at Google. Ipinapakita ng pinahusay na modelong ito ang malaki at dramatikong pagtaas ng mathematical accuracy, mula 70% hanggang 87.5% sa AIME 2025 test sa pamamagitan ng pagdoble ng kakayahan sa pangangatwiran. Naglabas din ang DeepSeek ng mas maliit na bersyon na may 8B parameters na distilled at kayang patakbuhin sa isang GPU habang pinananatili ang mataas na performance.
R1 Upgrade ng DeepSeek, Hinahamon ang Malalaking AI sa Pinahusay na Pangangatwiran

Malaking pag-usbong ang ipinamalas ng DeepSeek, isang Chinese artificial intelligence startup, sa kanilang open-source reasoning model sa paglabas ng R1-0528, na halos pumapantay na ngayon sa mga nangungunang modelo tulad ng OpenAI o3 at Google Gemini 2.5 Pro.

Ang upgrade na ito ay isang mahalagang hakbang sa pagpapahusay ng kakayahan ng DeepSeek sa pangangatwiran sa pamamagitan ng mas mataas na computational resources at algorithmic optimization. Sa mga benchmark test, nakamit ng modelo ang malaking pagtaas sa mathematical reasoning, kung saan ang accuracy sa AIME 2025 math test ay tumaas mula 70% hanggang 87.5%. Ang pagbuting ito ay nagmula sa mas malalim na reasoning depth, gamit na ngayon ng modelo ang average na 23,000 tokens kada tanong kumpara sa dating 12,000.

Bukod sa pagbuti sa matematika, nag-aalok ang R1-0528 ng ilang pinahusay na tampok na mas nagpapadali para sa mga developer. Sinusuportahan na ngayon ng modelo ang system prompts, function calling, at JSON output, kaya mas madali itong i-integrate sa mga aplikasyon. Ipinapakita rin nito ang mas mababang hallucination rate—bumaba ng 45-50% sa mga gawain tulad ng rewriting at summarizing—at mas mahusay na suporta para sa vibe coding, kung saan gumagamit ang mga developer ng natural na wika para bumuo ng code.

Para sa mga gumagamit na limitado ang resources, naglabas din ang DeepSeek ng distilled na bersyon na tinawag na DeepSeek-R1-0528-Qwen3-8B. Ito ay nilikha sa pamamagitan ng fine-tuning sa Alibaba Qwen3 8B model gamit ang mga reasoning pattern mula sa buong R1-0528. Ang mas maliit na modelong ito ay kayang patakbuhin sa isang consumer-grade na GPU habang nalalampasan pa ang performance ng Google Gemini 2.5 Flash sa ilang math benchmarks at halos pumapantay sa Microsoft Phi 4 reasoning plus model.

Tulad ng naunang bersyon, available ang R1-0528 sa ilalim ng maluwag na MIT License, na nagpapahintulot sa komersyal na paggamit at pag-customize. Inaalok na rin ng mga pangunahing cloud provider tulad ng Amazon Web Services at Microsoft Azure ang mga modelo ng DeepSeek sa kanilang mga kliyente, ngunit inihihiwalay nila ito mula sa mga Chinese server para matiyak ang privacy ng data.

Ang paglabas na ito ay lalo pang nagpapatibay sa DeepSeek at Meta bilang mga lider sa open-source AI space, na nagbibigay ng makapangyarihang alternatibo sa mga proprietary na modelo mula sa OpenAI, Google, Microsoft, at Anthropic sa mas mababang computational cost.

Source:

Latest News