DeepSeek V3.2 da série V3 do DeepSeek: uma família de modelos de linguagem de grande porte, com foco em inferência, otimizada para uso com ferramentas de análise ética, raciocínio de contexto extenso e implantação com custo-benefício.
O que é o DeepSeek v3.2?
DeepSeek v3.2 é o lançamento de produção mais recente do DeepSeek. V3 família: uma grande família de modelos de linguagem de peso aberto, com foco em raciocínio, projetada para **Compreensão de contexto amplo, uso robusto de agentes/ferramentas, raciocínio avançado, programação e matemática.**O pacote inclui várias variantes (V3.2 de produção e uma versão de alto desempenho V3.2-Speciale). O projeto enfatiza a inferência de contexto longo com custo eficiente por meio de um novo mecanismo de atenção esparsa chamado Atenção Esparsa DeepSeek (DSA) e agentes / fluxos de trabalho de “pensamento” (“Pensamento no Uso de Ferramentas”).
Principais características (em alto nível)
- Atenção Esparsa DeepSeek (DSA): Um mecanismo de atenção esparsa destinado a reduzir drasticamente o processamento computacional em cenários de contexto extenso, preservando o raciocínio de longo alcance. (Afirmação central da pesquisa; usado em
V3.2-Exp.) - Pensamento agente + integração do uso de ferramentas: A versão 3.2 enfatiza a incorporação do "pensamento" no uso de ferramentas: o modelo pode operar em modos de raciocínio e pensamento, bem como em modos não pensantes (normais) ao acionar ferramentas, aprimorando a tomada de decisões em tarefas com várias etapas e a orquestração de ferramentas.
- Pipeline de síntese de dados de agentes em larga escala: A DeepSeek apresenta um conjunto de treinamento e um pipeline de síntese de agentes que abrange milhares de ambientes e dezenas de milhares de instruções complexas para melhorar a robustez em tarefas interativas.
- **Atenção Esparsa DeepSeek (DSA)**O DSA é um método de atenção esparsa de granularidade fina, introduzido na linha V3.2 (primeiramente na V3.2-Exp), que reduz a complexidade da atenção (de um valor ingênuo de O(L²) para um valor de O(L·k), com k ≪ L), selecionando um conjunto menor de tokens chave/valor por token de consulta. O resultado é uma redução substancial no uso de memória/computação para contextos muito longos (128K), tornando a inferência em contextos longos consideravelmente mais barata.
- **Base de algoritmo Mixture-of-Experts (MoE) e Multi-head Latent Attention (MLA)**A família V3 utiliza MoE para aumentar a capacidade de forma eficiente (grande número de parâmetros nominais com ativação limitada por token), juntamente com métodos MLA para manter a qualidade e controlar o poder computacional.
Especificações técnicas (tabela concisa)
- Intervalo de parâmetros nominais: ~671B – 685B (variante dependente).
- Janela de contexto (referência documentada): Tokens 128,000 (128K) em configurações vLLM/de referência.
- Atenção: DeepSeek Sparse Attention (DSA) + MLA; complexidade de atenção reduzida para contextos longos.
- Precisão numérica e de treinamento: Os formatos BF16/F32 e formatos quantizados comprimidos (F8_E4M3 etc.) estão disponíveis para distribuição.
- Família arquitetônica: Infraestrutura MoE (mixture-of-experts) com economia de ativação por token.
- Entrada/saída: Entrada de texto tokenizada padrão (formatos de bate-papo/mensagem suportados); suporta chamadas de ferramentas (primitivas de API de uso de ferramentas) e chamadas interativas no estilo de bate-papo, bem como conclusões programáticas via API.
- Variantes oferecidas:
v3.2,v3.2-Exp(experimental, estreia na DSA),v3.2-Speciale(Raciocínio em primeiro lugar, apenas API, a curto prazo).
Desempenho de referência
Alto poder computacional V3.2-Speciale O estudo alcança paridade ou supera modelos contemporâneos de ponta em diversos benchmarks de raciocínio/matemática/programação, e obtém resultados excelentes em conjuntos de problemas matemáticos selecionados. O preprint destaca a paridade com modelos como GPT-5/Kimi K2 em benchmarks de raciocínio selecionados, além de melhorias específicas em relação às versões anteriores do DeepSeek R1/V3.
- AIM: melhorou de 70.0 para 87.5 (Δ +17.5).
- GPQA: 71.5 → 81.0 (Δ +9.5).
- LCB_v6: 63.5 → 73.3 (Δ +9.8).
- Auxiliar: 57.0 → 71.6 (Δ +14.6).
Comparação com outros modelos (alto nível)
- Comparação com GPT-5 / Gemini 3 Pro (declarações públicas): Os autores do DeepSeek e diversos veículos de imprensa afirmam que a variante Speciale apresenta desempenho igual ou superior em tarefas selecionadas de raciocínio e codificação, enfatizando a relação custo-benefício e o licenciamento aberto como diferenciais.
- Em comparação com modelos abertos (Olmo, Nemotron, Moonshot, etc.): DeepSeek destaca o treinamento de agentes e a Análise de Sistemas Dinâmicos (DSA) como principais diferenciais para a eficiência em contextos de longo prazo.
Casos de uso representativos
- Sistemas agéticos / orquestração: Agentes multiferramentas (APIs, web scrapers, conectores de execução de código) que se beneficiam do "pensamento" em nível de modelo + primitivas explícitas de chamada de ferramentas.
- Raciocínio/análise de documentos longos: Documentos legais, grandes conjuntos de dados de pesquisa, transcrições de reuniões — as variantes de contexto longo (128 mil tokens) permitem manter contextos muito grandes em uma única chamada.
- Assistência em matemática complexa e programação:
V3.2-SpecialeÉ recomendado para raciocínio matemático avançado e tarefas extensivas de depuração de código, de acordo com os benchmarks do fornecedor. - Implantações de produção sensíveis a custos: As alterações de preços do DSA+ visam reduzir os custos de inferência para cargas de trabalho de alto contexto.
Como começar a usarDeepSeek v3.2 API
DeepSeek v3.2 Preços da API no CometAPI, 20% de desconto sobre o preço oficial:
| Tokens de entrada | $0.22 |
| Tokens de saída | $0.35 |
Etapas Necessárias
- Faça o login no cometapi.com. Se você ainda não é nosso usuário, registre-se primeiro
- Obtenha a chave de API da credencial de acesso da interface. Clique em "Adicionar Token" no token da API no centro pessoal, obtenha a chave de token: sk-xxxxx e envie.
- Obtenha a URL deste site: https://api.cometapi.com/
Use o método
- Selecione a opção "
deepseek-v3.2” endpoint para enviar a solicitação de API e definir o corpo da solicitação. O método e o corpo da solicitação são obtidos da documentação da API do nosso site. Nosso site também oferece o teste Apifox para sua conveniência. - Substituir com sua chave CometAPI real da sua conta.
- Selecionar Chat Formato: Insira sua pergunta ou solicitação no campo de conteúdo — é a isso que o modelo responderá.
- Processe a resposta da API para obter a resposta gerada.
