DeepSeek, en kinesisk virksomhed inden for kunstig intelligens, har markant opgraderet sin open source-ræsonnementsmodel med lanceringen af R1-0528, hvilket bringer dens ydeevne tæt på branchens førende aktører som OpenAIs o3 og Googles Gemini 2.5 Pro.
Opgraderingen markerer et stort fremskridt for DeepSeeks ræsonnementsevner gennem øgede beregningsressourcer og algoritmeoptimering. I benchmark-tests viste modellen bemærkelsesværdige forbedringer i matematisk ræsonnement, hvor nøjagtigheden på AIME 2025-mathematiktesten steg fra 70% til 87,5%. Denne forbedring skyldes en øget dybde i ræsonnementet, idet modellen nu bruger gennemsnitligt 23.000 tokens pr. spørgsmål mod tidligere 12.000.
Ud over de matematiske forbedringer tilbyder R1-0528 flere nye funktioner, der gør den mere udviklervenlig. Modellen understøtter nu systemprompter, funktionskald og JSON-output, hvilket gør integrationen i applikationer lettere. Den udviser også en reduceret hallucinationsrate—angiveligt ned med 45-50% ved omskrivnings- og opsummeringsopgaver—og giver bedre støtte til såkaldt 'vibe coding', hvor udviklere kan generere kode med naturligt sprog.
Som et bemærkelsesværdigt initiativ for brugere med begrænsede ressourcer har DeepSeek også frigivet en destilleret version kaldet DeepSeek-R1-0528-Qwen3-8B. Denne mindre model er skabt ved at finjustere Alibabas Qwen3 8B-model med ræsonnementsmønstrene fra den fulde R1-0528 og kan køre på et enkelt forbruger-GPU-kort, samtidig med at den overgår Googles Gemini 2.5 Flash på visse matematikbenchmarks og næsten matcher Microsofts Phi 4 reasoning plus-model.
Ligesom forgængeren er R1-0528 tilgængelig under den tilladende MIT-licens, hvilket muliggør kommerciel brug og tilpasning. Store cloud-udbydere som Amazon Web Services og Microsoft Azure tilbyder nu DeepSeeks modeller til deres kunder, dog isoleret fra kinesiske servere for at sikre dataprivatliv.
Denne udgivelse cementerer yderligere DeepSeek og Meta som ledende aktører inden for open source-AI og tilbyder stærke alternativer til proprietære modeller fra OpenAI, Google, Microsoft og Anthropic til en brøkdel af de beregningsmæssige omkostninger.