menu
close

Upgrade-ul R1 de la DeepSeek provoacă giganții AI cu raționament îmbunătățit

Startup-ul chinez de inteligență artificială DeepSeek a lansat R1-0528, o actualizare semnificativă a modelului său open-source de raționament, care acum rivalizează cu ofertele proprietare de la OpenAI și Google. Modelul îmbunătățit demonstrează o acuratețe matematică dramatic crescută, sărind de la 70% la 87,5% la testul AIME 2025 prin dublarea capacității de raționament. DeepSeek a lansat, de asemenea, o versiune distilată mai mică, cu 8 miliarde de parametri, care poate rula pe o singură placă video, menținând totodată performanțe impresionante.
Upgrade-ul R1 de la DeepSeek provoacă giganții AI cu raționament îmbunătățit

DeepSeek, un startup chinez de inteligență artificială, și-a îmbunătățit semnificativ modelul open-source de raționament prin lansarea R1-0528, aducând performanța acestuia aproape de nivelul liderilor din industrie precum o3 de la OpenAI și Gemini 2.5 Pro de la Google.

Upgrade-ul reprezintă un progres major în capacitățile de raționament ale DeepSeek, obținut prin resurse computaționale sporite și optimizări algoritmice. În testele de referință, modelul a demonstrat îmbunătățiri remarcabile în raționamentul matematic, cu o acuratețe la testul de matematică AIME 2025 crescută de la 70% la 87,5%. Această creștere se datorează unei profunzimi sporite a raționamentului, modelul folosind acum în medie 23.000 de tokeni per întrebare, comparativ cu 12.000 anterior.

Dincolo de îmbunătățirile matematice, R1-0528 oferă mai multe funcționalități avansate care îl fac mai prietenos pentru dezvoltatori. Modelul suportă acum prompturi de sistem, apelarea funcțiilor și ieșire în format JSON, facilitând integrarea în aplicații. De asemenea, prezintă o rată redusă de halucinații—scăzută cu 45-50% la sarcinile de rescriere și rezumare—și oferă suport îmbunătățit pentru vibe coding, unde dezvoltatorii pot genera cod folosind limbaj natural.

Într-o evoluție notabilă pentru utilizatorii cu resurse limitate, DeepSeek a lansat și o versiune distilată numită DeepSeek-R1-0528-Qwen3-8B. Creată prin fine-tuning-ul modelului Qwen3 8B de la Alibaba cu tiparele de raționament ale modelului complet R1-0528, acest model mai mic poate rula pe o singură placă video de consum, depășind totodată Gemini 2.5 Flash de la Google la anumite teste matematice și apropiindu-se de performanța modelului Phi 4 reasoning plus de la Microsoft.

La fel ca predecesorul său, R1-0528 este disponibil sub licența permisivă MIT, permițând utilizarea comercială și personalizarea. Furnizori majori de cloud, inclusiv Amazon Web Services și Microsoft Azure, oferă acum modelele DeepSeek clienților lor, însă le izolează de serverele din China pentru a asigura confidențialitatea datelor.

Această lansare consolidează și mai mult poziția DeepSeek și Meta ca lideri în domeniul AI open-source, oferind alternative puternice la modelele proprietare de la OpenAI, Google, Microsoft și Anthropic, la o fracțiune din costul computațional.

Source:

Latest News