DeepSeek v3.2 è l’ultima release di produzione della famiglia DeepSeek V3: una famiglia di modelli linguistici open-weight, con priorità al ragionamento, progettata per la comprensione di contesti lunghi, l’uso robusto di agenti/strumenti, il ragionamento avanzato, il coding e la matematica. La release include più varianti (V3.2 di produzione e una V3.2-Speciale ad alte prestazioni). Il progetto enfatizza l’inferenza a lungo contesto economicamente efficiente tramite un nuovo meccanismo di attenzione sparsa chiamato DeepSeek Sparse Attention (DSA) e workflow di agenti/“thinking” (“Thinking in Tool-Use”).
V3.2-Exp.)v3.2, v3.2-Exp (sperimentale, debutto DSA), v3.2-Speciale (priorità al ragionamento, solo API a breve termine).La variante ad alto compute V3.2-Speciale raggiunge la parità o supera modelli contemporanei di fascia alta su diversi benchmark di ragionamento/matematica/coding, e ottiene risultati di vertice su selezionati set di problemi matematici d’élite. Il preprint evidenzia la parità con modelli come GPT-5 / Kimi K2 su benchmark di ragionamento selezionati, con miglioramenti specifici rispetto alle baseline DeepSeek R1/V3 precedenti:
V3.2-Speciale è promossa per il ragionamento matematico avanzato e l’ampio debugging di codice secondo i benchmark del vendor.| Token di input | $0.22 |
|---|---|
| Token di output | $0.35 |
deepseek-v3.2” per inviare la richiesta API e imposta il body della richiesta. Il metodo e il body della richiesta sono ottenibili dalla documentazione API del nostro sito. Il nostro sito fornisce anche test Apifox per tua comodità.| Prezzo Comet (USD / M Tokens) | Prezzo Ufficiale (USD / M Tokens) |
|---|---|
Ingresso:$0.22/M Uscita:$0.35/M | Ingresso:$0.27/M Uscita:$0.43/M |
from openai import OpenAI
import os
# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"
client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
completion = client.chat.completions.create(
model="deepseek-v3.2-exp",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"},
],
)
print(completion.choices[0].message.content)| deepseek-v3.2 | |
|---|---|
| DeepSeek-V3.2-Exp-nothinking | |
| DeepSeek-V3.2-Exp-thinking |