menu
close

L'aggiornamento R1 di DeepSeek sfida i giganti dell'IA con capacità di ragionamento potenziate

La startup cinese DeepSeek ha rilasciato R1-0528, un importante aggiornamento del suo modello open-source di ragionamento che ora rivaleggia con le soluzioni proprietarie di OpenAI e Google. Il modello migliorato mostra una precisione matematica notevolmente superiore, passando dal 70% all'87,5% nel test AIME 2025 grazie al raddoppio della sua capacità di ragionamento. DeepSeek ha inoltre presentato una versione distillata più piccola da 8 miliardi di parametri, eseguibile su una singola GPU e in grado di mantenere prestazioni impressionanti.
L'aggiornamento R1 di DeepSeek sfida i giganti dell'IA con capacità di ragionamento potenziate

DeepSeek, startup cinese nel campo dell'intelligenza artificiale, ha significativamente potenziato il suo modello open-source di ragionamento con il rilascio di R1-0528, portando le sue prestazioni quasi al livello dei leader di settore come o3 di OpenAI e Gemini 2.5 Pro di Google.

L'aggiornamento rappresenta un importante progresso nelle capacità di ragionamento di DeepSeek, grazie all'aumento delle risorse computazionali e all'ottimizzazione degli algoritmi. Nei test di riferimento, il modello ha mostrato miglioramenti notevoli nel ragionamento matematico, con una precisione nel test matematico AIME 2025 salita dal 70% all'87,5%. Questo progresso deriva da una maggiore profondità di ragionamento, con il modello che ora utilizza in media 23.000 token per domanda rispetto ai precedenti 12.000.

Oltre ai miglioramenti matematici, R1-0528 offre diverse funzionalità avanzate che lo rendono più adatto agli sviluppatori. Il modello ora supporta prompt di sistema, chiamate di funzione e output in formato JSON, facilitando l'integrazione nelle applicazioni. Dimostra inoltre un tasso di allucinazione ridotto—si parla di una diminuzione del 45-50% nei compiti di riscrittura e sintesi—e un migliore supporto per il vibe coding, dove gli sviluppatori possono generare codice utilizzando il linguaggio naturale.

In una novità significativa per chi dispone di risorse limitate, DeepSeek ha anche rilasciato una versione distillata chiamata DeepSeek-R1-0528-Qwen3-8B. Creata ottimizzando il modello Qwen3 8B di Alibaba con i pattern di ragionamento del modello R1-0528 completo, questa versione più compatta può essere eseguita su una singola GPU consumer, superando comunque Gemini 2.5 Flash di Google in alcuni benchmark matematici e avvicinandosi alle prestazioni di Phi 4 reasoning plus di Microsoft.

Come il suo predecessore, R1-0528 è disponibile sotto licenza MIT permissiva, che consente l'uso commerciale e la personalizzazione. I principali provider cloud, tra cui Amazon Web Services e Microsoft Azure, offrono ora i modelli DeepSeek ai propri clienti, isolandoli però dai server cinesi per garantire la privacy dei dati.

Questa release consolida ulteriormente DeepSeek e Meta come leader nel settore dell'IA open-source, offrendo alternative potenti ai modelli proprietari di OpenAI, Google, Microsoft e Anthropic a una frazione del costo computazionale.

Source:

Latest News