La startup cinese di intelligenza artificiale DeepSeek ha rilasciato oggi un aggiornamento incrementale ma di impatto al suo modello di ragionamento di punta R1, designato DeepSeek R1-0528, sulla piattaforma Hugging Face. Pubblicato sotto la licenza permissiva MIT su 28 Maggio 2025L'aggiornamento si basa sulla versione R1 originale di gennaio 2025, che per prima ha dimostrato che i modelli di linguaggio open source potevano competere con le offerte proprietarie sia in termini di prestazioni che di economicità. Nonostante sia stato descritto internamente come un "aggiornamento di prova minore", R1-0528 incorpora miglioramenti sostanziali nella sofisticatezza del ragionamento, nell'accuratezza della sintesi del codice e nell'affidabilità del modello.
Aggiornamenti principali di DeepSeek R1
Pensiero contestuale esteso
Sfruttando livelli di mix di esperti (MoE) e meccanismi di attenzione ottimizzati, R1-0528 può sostenere catene di ragionamento più profonde su input prolungati, rendendolo adatto ai flussi di lavoro che richiedono una conservazione prolungata del contesto ().
Affidabilità e coerenza migliorate
Gli sviluppatori segnalano un output più stabile nelle richieste ripetute, con una ridotta varianza nella qualità delle risposte e meno errori di timeout quando si gestiscono query lunghe e ricche di contesto.
Ragionamento avanzato
L'architettura sottostante rimane a 671 miliardi di parametri, sfruttando gli stessi meccanismi di attenzione dell'originale deepseek R1 ma con pesi raffinati e una capacità di "pensiero" più lunga.
Le valutazioni interne mostrano guadagni misurabili nei benchmark ad alta intensità logica, con inferenza multi-step più coerente nelle query complesse.
Generazione di codice superiore
I benchmark di LiveCodeBench segnalano chiari progressi nella codifica assistita dall'intelligenza artificiale: R1-0528 è ora classificato come il miglior modello di origine cinese per le attività di codifica, dietro solo alle configurazioni o4-mini-high, o3-high e o4-mini-medium di OpenAI.
Supera Qwen 3 di Alibaba e Claude 3.7 di Anthropic in termini di accuratezza ed efficienza della codifica.
Prestazioni tecniche
| Metrico/Benchmark | R1-0528 | R1 (gennaio 2025) | Proprietà leader |
|---|---|---|---|
| Punteggio LLM composito | Mediano 69.45 | ~ 67.8 | OpenAI o3/o4-mini (~70–72) |
| Grado di generazione del codice | #1 tra i modelli cinesi; #4 assoluto a livello mondiale | #2 tra i modelli cinesi | Dietro OpenAI o4-mini e o3; davanti a Grok 3 mini |
| Finestra di contesto | 163 840 gettoni (≈2 × originali) | 81 token | Paragonabile a OpenAI o3-high |
| Efficienza di inferenza | 37 b parametri attivi / 671 b totali | Stesso | Simile ad altri grandi software open source |
Piattaforme di benchmark:
Informazioni su LiveCodeBench: Posiziona R1-0528 appena sotto o4-mini e o3 di OpenAI nelle attività di codifica, superando Grok 3 mini di xAI e Qwen 3 di Alibaba.
Aggregati LLM compositi (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Produce una prestazione mediana di 69.45, collocandolo a distanza ravvicinata dalle offerte di Claude e Gemini (Analytics Vidhya).

Memoria e contesto:
La finestra di contesto estesa supporta basi di codice, documenti lunghi e dialoghi multi-turn con una perdita minima di coerenza.
Licenze open source e accessibilità
Rilasciati senza una scheda modello pubblica su Hugging Face, i pesi e i file di configurazione R1-0528 sono comunque completamente accessibili sotto Licenza MIT, consentendo un uso commerciale illimitato e modifiche guidate dalla comunità. La scelta della licenza da parte di DeepSeek prosegue la sua strategia di diffusione "open weights", garantendo che istituti di ricerca e startup possano integrare il modello senza vincoli.
Impatto sul mercato e panorama competitivo
Il lancio della versione R1 di DeepSeek nel gennaio 2025 ha sconvolto le ipotesi prevalenti sui costi e sulla scalabilità richiesti per l'intelligenza artificiale all'avanguardia, spingendo i concorrenti statunitensi ad adeguare i prezzi e a introdurre modelli più leggeri (ad esempio, o3 Mini di OpenAI). Con la versione R1-0528, DeepSeek riafferma la sua posizione di leader nel settore open source, guidando la concorrenza sia in termini di prestazioni che di prezzo contro OpenAI, Google Gemini, Alibaba e Anthropic.
Prospettive future
Dal suo lancio a gennaio, DeepSeek R1 ha già suscitato reazioni strategiche da parte dei principali attori del settore dell'intelligenza artificiale, influenzando in particolare gli adeguamenti dei prezzi di OpenAI e la roadmap di Google per i modelli Gemini. Si prevede che l'aggiornamento R1-0528 intensificherà la pressione competitiva, in particolare tra le aziende alla ricerca di alternative economiche ma ad alte prestazioni agli LLM proprietari. Nel frattempo, le autorità di regolamentazione statunitensi hanno sollevato preoccupazioni per la sicurezza nazionale in merito ai rapidi progressi di DeepSeek, sottolineando la posta in gioco geopolitica della proliferazione dell'intelligenza artificiale open source.
Iniziamo
CometAPI fornisce un'interfaccia REST unificata che aggrega centinaia di modelli di intelligenza artificiale, sotto un endpoint coerente, con gestione integrata delle chiavi API, quote di utilizzo e dashboard di fatturazione. Invece di dover gestire URL e credenziali di più fornitori.
Gli sviluppatori possono accedere alle ultime novità API di DeepSeek R1 (nome del modello: deepseek-r1-0528) Attraverso CometaAPIPer iniziare, esplora le capacità del modello nel Parco giochi e consultare il Guida API Per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l'accesso a CometAPI e di aver ottenuto la chiave API. Il prezzo è disponibile su CometAPI:
- Input token: $ 0.44 / M token
- Token di output: $ 1.752 / M token



