DeepSeek, kiinalainen tekoäly-startup, on merkittävästi päivittänyt avointa päättelymalliaan julkaisemalla R1-0528-version, jonka suorituskyky lähestyy alan johtajia kuten OpenAI:n o3:sta ja Googlen Gemini 2.5 Pro:ta.
Päivitys edustaa merkittävää harppausta DeepSeekin päättelykyvyssä lisääntyneiden laskentaresurssien ja algoritmisten optimointien ansiosta. Malli osoitti vertailutesteissä huomattavia parannuksia matemaattisessa päättelyssä: tarkkuus AIME 2025 -matematiikkatestissä nousi 70 prosentista 87,5 prosenttiin. Tämä kehitys johtuu syvemmästä päättelystä, sillä malli käyttää nyt keskimäärin 23 000 tokenia kysymystä kohden aiemman 12 000 sijaan.
Matemaattisten parannusten lisäksi R1-0528 tarjoaa useita kehittäjäystävällisiä ominaisuuksia. Malli tukee nyt järjestelmäkehotteita, funktiokutsuja ja JSON-muotoista ulostuloa, mikä helpottaa sen integrointia sovelluksiin. Lisäksi hallusinaatioiden määrä on vähentynyt – uudelleenkirjoitus- ja tiivistämistehtävissä jopa 45–50 prosenttia – ja tuki "vibe codingille" on parantunut, jolloin kehittäjät voivat tuottaa koodia luonnollisella kielellä.
Resurssirajoitteisille käyttäjille DeepSeek julkaisi myös tiivistetyn version nimeltä DeepSeek-R1-0528-Qwen3-8B. Tämä pienempi malli on luotu hienosäätämällä Alibaban Qwen3 8B -mallia täyden R1-0528:n päättelykaavoilla, ja se toimii yhdellä kuluttajatason GPU:lla. Siitä huolimatta se päihittää Googlen Gemini 2.5 Flashin tietyissä matemaattisissa vertailuissa ja lähes vastaa Microsoftin Phi 4 reasoning plus -mallia.
Kuten edeltäjänsä, myös R1-0528 on saatavilla vapaalla MIT-lisenssillä, joka sallii kaupallisen käytön ja muokkauksen. Suuret pilvipalveluntarjoajat, kuten Amazon Web Services ja Microsoft Azure, tarjoavat nyt DeepSeekin malleja asiakkailleen, mutta eristävät ne kiinalaisista palvelimista tietosuojan varmistamiseksi.
Tämä julkaisu vahvistaa entisestään DeepSeekin ja Metan asemaa avoimen lähdekoodin tekoälyratkaisujen kärjessä, tarjoten tehokkaita vaihtoehtoja OpenAI:n, Googlen, Microsoftin ja Anthropicin suljetuille malleille murto-osalla laskentakustannuksista.