DeepSeek, čínský startup zaměřený na umělou inteligenci, významně vylepšil svůj open-source model pro uvažování vydáním verze R1-0528, jejíž výkon se nyní téměř vyrovná lídrům v oboru, jako jsou o3 od OpenAI a Gemini 2.5 Pro od Googlu.
Tento upgrade představuje zásadní posun v možnostech uvažování díky navýšení výpočetních zdrojů a optimalizaci algoritmů. V benchmarkových testech model vykázal pozoruhodné zlepšení v matematickém uvažování – přesnost v matematickém testu AIME 2025 vzrostla ze 70 % na 87,5 %. Toto zlepšení je výsledkem hlubšího uvažování: model nyní na jednu otázku využívá v průměru 23 000 tokenů oproti předchozím 12 000.
Kromě matematických vylepšení nabízí R1-0528 také řadu nových funkcí, které jej činí přívětivějším pro vývojáře. Model nyní podporuje systémové prompty, volání funkcí a výstup v JSON formátu, což usnadňuje jeho integraci do aplikací. Zároveň vykazuje nižší míru halucinací – podle údajů DeepSeek klesla o 45–50 % při úlohách přepisování a sumarizace – a lépe podporuje tzv. vibe coding, kdy vývojáři generují kód pomocí přirozeného jazyka.
Pro uživatele s omezenými zdroji DeepSeek navíc vydal destilovanou verzi s názvem DeepSeek-R1-0528-Qwen3-8B. Ta vznikla doladěním modelu Qwen3 8B od Alibaby s využitím vzorů uvažování z plné verze R1-0528. Tento menší model lze provozovat na běžné spotřebitelské GPU a přitom překonává Gemini 2.5 Flash od Googlu v některých matematických benchmarcích a téměř se vyrovná modelu Phi 4 reasoning plus od Microsoftu.
Stejně jako jeho předchůdce je R1-0528 dostupný pod permisivní licencí MIT, což umožňuje komerční využití i úpravy. Hlavní poskytovatelé cloudových služeb, včetně Amazon Web Services a Microsoft Azure, nyní nabízejí modely DeepSeek svým klientům, přičemž je však oddělují od čínských serverů kvůli ochraně dat.
Tato nová verze dále upevňuje pozici DeepSeek a Meta jako lídrů v oblasti open-source AI a nabízí výkonné alternativy k proprietárním modelům od OpenAI, Googlu, Microsoftu a Anthropic za zlomek výpočetních nákladů.