API Deepseek v3.2

CometAPI
AnnaDec 3, 2025
API Deepseek v3.2

DeepSeek V3.2 da série V3 do DeepSeek: uma família de modelos de linguagem de grande porte, com foco em inferência, otimizada para uso com ferramentas de análise ética, raciocínio de contexto extenso e implantação com custo-benefício.

O que é o DeepSeek v3.2?

DeepSeek v3.2 é o lançamento de produção mais recente do DeepSeek. V3 família: uma grande família de modelos de linguagem de peso aberto, com foco em raciocínio, projetada para **Compreensão de contexto amplo, uso robusto de agentes/ferramentas, raciocínio avançado, programação e matemática.**O pacote inclui várias variantes (V3.2 de produção e uma versão de alto desempenho V3.2-Speciale). O projeto enfatiza a inferência de contexto longo com custo eficiente por meio de um novo mecanismo de atenção esparsa chamado Atenção Esparsa DeepSeek (DSA) e agentes / fluxos de trabalho de “pensamento” (“Pensamento no Uso de Ferramentas”).

Principais características (em alto nível)

  • Atenção Esparsa DeepSeek (DSA): Um mecanismo de atenção esparsa destinado a reduzir drasticamente o processamento computacional em cenários de contexto extenso, preservando o raciocínio de longo alcance. (Afirmação central da pesquisa; usado em V3.2-Exp.)
  • Pensamento agente + integração do uso de ferramentas: A versão 3.2 enfatiza a incorporação do "pensamento" no uso de ferramentas: o modelo pode operar em modos de raciocínio e pensamento, bem como em modos não pensantes (normais) ao acionar ferramentas, aprimorando a tomada de decisões em tarefas com várias etapas e a orquestração de ferramentas.
  • Pipeline de síntese de dados de agentes em larga escala: A DeepSeek apresenta um conjunto de treinamento e um pipeline de síntese de agentes que abrange milhares de ambientes e dezenas de milhares de instruções complexas para melhorar a robustez em tarefas interativas.
  • **Atenção Esparsa DeepSeek (DSA)**O DSA é um método de atenção esparsa de granularidade fina, introduzido na linha V3.2 (primeiramente na V3.2-Exp), que reduz a complexidade da atenção (de um valor ingênuo de O(L²) para um valor de O(L·k), com k ≪ L), selecionando um conjunto menor de tokens chave/valor por token de consulta. O resultado é uma redução substancial no uso de memória/computação para contextos muito longos (128K), tornando a inferência em contextos longos consideravelmente mais barata.
  • **Base de algoritmo Mixture-of-Experts (MoE) e Multi-head Latent Attention (MLA)**A família V3 utiliza MoE para aumentar a capacidade de forma eficiente (grande número de parâmetros nominais com ativação limitada por token), juntamente com métodos MLA para manter a qualidade e controlar o poder computacional.

Especificações técnicas (tabela concisa)

  • Intervalo de parâmetros nominais: ~671B – 685B (variante dependente).
  • Janela de contexto (referência documentada): Tokens 128,000 (128K) em configurações vLLM/de referência.
  • Atenção: DeepSeek Sparse Attention (DSA) + MLA; complexidade de atenção reduzida para contextos longos.
  • Precisão numérica e de treinamento: Os formatos BF16/F32 e formatos quantizados comprimidos (F8_E4M3 etc.) estão disponíveis para distribuição.
  • Família arquitetônica: Infraestrutura MoE (mixture-of-experts) com economia de ativação por token.
  • Entrada/saída: Entrada de texto tokenizada padrão (formatos de bate-papo/mensagem suportados); suporta chamadas de ferramentas (primitivas de API de uso de ferramentas) e chamadas interativas no estilo de bate-papo, bem como conclusões programáticas via API.
  • Variantes oferecidas: v3.2, v3.2-Exp (experimental, estreia na DSA), v3.2-Speciale (Raciocínio em primeiro lugar, apenas API, a curto prazo).

Desempenho de referência

Alto poder computacional V3.2-Speciale O estudo alcança paridade ou supera modelos contemporâneos de ponta em diversos benchmarks de raciocínio/matemática/programação, e obtém resultados excelentes em conjuntos de problemas matemáticos selecionados. O preprint destaca a paridade com modelos como GPT-5/Kimi K2 em benchmarks de raciocínio selecionados, além de melhorias específicas em relação às versões anteriores do DeepSeek R1/V3.

  • AIM: melhorou de 70.0 para 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Auxiliar: 57.0 → 71.6 (Δ +14.6).

Comparação com outros modelos (alto nível)

  • Comparação com GPT-5 / Gemini 3 Pro (declarações públicas): Os autores do DeepSeek e diversos veículos de imprensa afirmam que a variante Speciale apresenta desempenho igual ou superior em tarefas selecionadas de raciocínio e codificação, enfatizando a relação custo-benefício e o licenciamento aberto como diferenciais.
  • Em comparação com modelos abertos (Olmo, Nemotron, Moonshot, etc.): DeepSeek destaca o treinamento de agentes e a Análise de Sistemas Dinâmicos (DSA) como principais diferenciais para a eficiência em contextos de longo prazo.

Casos de uso representativos

  • Sistemas agéticos / orquestração: Agentes multiferramentas (APIs, web scrapers, conectores de execução de código) que se beneficiam do "pensamento" em nível de modelo + primitivas explícitas de chamada de ferramentas.
  • Raciocínio/análise de documentos longos: Documentos legais, grandes conjuntos de dados de pesquisa, transcrições de reuniões — as variantes de contexto longo (128 mil tokens) permitem manter contextos muito grandes em uma única chamada.
  • Assistência em matemática complexa e programação: V3.2-Speciale É recomendado para raciocínio matemático avançado e tarefas extensivas de depuração de código, de acordo com os benchmarks do fornecedor.
  • Implantações de produção sensíveis a custos: As alterações de preços do DSA+ visam reduzir os custos de inferência para cargas de trabalho de alto contexto.

Como começar a usarDeepSeek v3.2 API

DeepSeek v3.2 Preços da API no CometAPI, 20% de desconto sobre o preço oficial:

Tokens de entrada$0.22
Tokens de saída$0.35

Etapas Necessárias

  • Faça o login no cometapi.com. Se você ainda não é nosso usuário, registre-se primeiro
  • Obtenha a chave de API da credencial de acesso da interface. Clique em "Adicionar Token" no token da API no centro pessoal, obtenha a chave de token: sk-xxxxx e envie.
  • Obtenha a URL deste site: https://api.cometapi.com/

Use o método

  1. Selecione a opção "deepseek-v3.2” endpoint para enviar a solicitação de API e definir o corpo da solicitação. O método e o corpo da solicitação são obtidos da documentação da API do nosso site. Nosso site também oferece o teste Apifox para sua conveniência.
  2. Substituir com sua chave CometAPI real da sua conta.
  3. Selecionar Chat Formato: Insira sua pergunta ou solicitação no campo de conteúdo — é a isso que o modelo responderá.
  4. Processe a resposta da API para obter a resposta gerada.
Leia Mais

500+ Modelos em Uma API

Até 20% de Desconto