DeepSeek, een Chinese startup op het gebied van kunstmatige intelligentie, heeft zijn open-source redeneermodel aanzienlijk verbeterd met de release van R1-0528, waarmee de prestaties bijna gelijk zijn aan die van marktleiders als OpenAI's o3 en Google's Gemini 2.5 Pro.
De upgrade betekent een grote stap vooruit in DeepSeek's redeneercapaciteiten door het inzetten van meer rekenkracht en algoritmische optimalisatie. In benchmarktests liet het model opmerkelijke verbeteringen zien op het gebied van wiskundig redeneren: de nauwkeurigheid op de AIME 2025-wiskundetoets steeg van 70% naar 87,5%. Deze vooruitgang is te danken aan een grotere redeneerdiepte, waarbij het model nu gemiddeld 23.000 tokens per vraag gebruikt, tegenover voorheen 12.000.
Naast de wiskundige verbeteringen biedt R1-0528 diverse nieuwe functies die het model aantrekkelijker maken voor ontwikkelaars. Zo ondersteunt het nu systeemopdrachten, functie-aanroepen en JSON-uitvoer, waardoor integratie in applicaties eenvoudiger wordt. Ook is het hallucinatiepercentage aanzienlijk gedaald—volgens eigen zeggen met 45-50% bij herschrijf- en samenvattingstaken—en is er betere ondersteuning voor 'vibe coding', waarbij ontwikkelaars met natuurlijke taal code kunnen genereren.
Voor gebruikers met beperkte middelen is er bovendien een gedistilleerde versie uitgebracht: DeepSeek-R1-0528-Qwen3-8B. Deze kleinere variant is gemaakt door Alibaba's Qwen3 8B-model fijn af te stemmen met de redeneerpatronen van de volledige R1-0528. Het model kan draaien op een enkele consumentengpu en presteert op bepaalde wiskundige benchmarks zelfs beter dan Google's Gemini 2.5 Flash, en benadert het niveau van Microsoft's Phi 4 reasoning plus model.
Net als zijn voorganger is R1-0528 beschikbaar onder de permissieve MIT-licentie, wat commercieel gebruik en aanpassingen mogelijk maakt. Grote cloudproviders zoals Amazon Web Services en Microsoft Azure bieden DeepSeek's modellen inmiddels aan hun klanten aan, waarbij ze deze wel isoleren van Chinese servers om de gegevensprivacy te waarborgen.
Met deze release verstevigen DeepSeek en Meta hun positie als leiders in het open-source AI-landschap, en bieden ze krachtige alternatieven voor de gesloten modellen van OpenAI, Google, Microsoft en Anthropic tegen een fractie van de rekenkosten.