menu
close

DeepSeeks R1-uppgradering utmanar AI-jättarna med förbättrad slutledningsförmåga

Det kinesiska AI-startupbolaget DeepSeek har lanserat R1-0528, en betydande uppgradering av sin öppna slutledningsmodell som nu kan mäta sig med proprietära lösningar från OpenAI och Google. Den förbättrade modellen uppvisar dramatiskt ökad matematisk noggrannhet, med ett hopp från 70 % till 87,5 % på AIME 2025-testet tack vare fördubblad slutledningskapacitet. DeepSeek har även släppt en mindre, destillerad version med 8 miljarder parametrar som kan köras på ett enda GPU-kort och ändå levererar imponerande prestanda.
DeepSeeks R1-uppgradering utmanar AI-jättarna med förbättrad slutledningsförmåga

DeepSeek, ett kinesiskt företag inom artificiell intelligens, har kraftigt förbättrat sin öppna slutledningsmodell genom lanseringen av R1-0528, vilket gör att prestandan nu nästan når upp till branschledare som OpenAIs o3 och Googles Gemini 2.5 Pro.

Uppgraderingen innebär ett stort steg framåt för DeepSeeks förmåga till slutledning, tack vare ökade beräkningsresurser och algoritmoptimering. I benchmark-tester visade modellen anmärkningsvärda framsteg inom matematisk slutledning, där noggrannheten på AIME 2025-mattetestet ökade från 70 % till 87,5 %. Denna förbättring beror på ett fördjupat resonemang, där modellen nu använder i genomsnitt 23 000 token per fråga jämfört med tidigare 12 000.

Utöver matematiska förbättringar erbjuder R1-0528 flera nya funktioner som gör modellen mer utvecklarvänlig. Nu stöds systemprompter, funktionsanrop och JSON-utdata, vilket förenklar integrationen i olika applikationer. Modellen uppvisar även en minskad hallucinationsfrekvens—enligt uppgift ned med 45–50 % vid omskrivnings- och summeringsuppgifter—och ger bättre stöd för så kallad vibe coding, där utvecklare använder naturligt språk för att generera kod.

För användare med begränsade resurser har DeepSeek även släppt en destillerad version med namnet DeepSeek-R1-0528-Qwen3-8B. Denna mindre modell har finjusterats från Alibabas Qwen3 8B-modell med slutledningsmönster från fulla R1-0528, och kan köras på ett enda konsument-GPU-kort. Trots sin mindre storlek överträffar den Googles Gemini 2.5 Flash på vissa matematiska benchmarktester och når nästan upp till Microsofts Phi 4 reasoning plus-modell.

Precis som föregångaren är R1-0528 tillgänglig under den tillåtande MIT-licensen, vilket möjliggör kommersiell användning och anpassning. Stora molnleverantörer som Amazon Web Services och Microsoft Azure erbjuder nu DeepSeeks modeller till sina kunder, men isolerar dem från kinesiska servrar för att säkerställa dataintegritet.

Denna lansering stärker ytterligare DeepSeeks och Metas position som ledare inom öppen AI och erbjuder kraftfulla alternativ till proprietära modeller från OpenAI, Google, Microsoft och Anthropic till en bråkdel av den beräkningsmässiga kostnaden.

Source:

Latest News