DeepSeek-V3.1: Recursos, arquitetura e benchmarks

CometAPI
AnnaAug 20, 2025
DeepSeek-V3.1: Recursos, arquitetura e benchmarks

Em agosto de 2025, a startup chinesa de IA DeepSeek anunciou o lançamento de DeepSeek-V3.1, uma atualização de meia geração que a empresa anuncia como seu primeiro passo "em direção à era do agente". A atualização traz um modo de inferência híbrido (um único modelo que pode ser executado em um modo "pensante" ou "não pensante"), uma janela de contexto substancialmente mais longa e melhorias pós-treinamento direcionadas para chamadas de ferramentas e comportamento de agentes em várias etapas.

O que é DeepSeek-V3.1 e por que isso é importante?

O DeepSeek-V3.1 é a mais recente atualização de nível de produção da série V3 do DeepSeek. Em termos gerais, trata-se de uma família híbrida de modelos de linguagem MoE (a linhagem V3) que o DeepSeek treinou e expandiu para suportar dois modos de operação visíveis ao usuário. Você encontrará duas variantes principais: o DeepSeek-V3.1-Base e o DeepSeek-V3.1 completo:

  • Não pensar (bate-papo em busca profunda): um modo de conclusão de bate-papo padrão otimizado para velocidade e uso conversacional.
  • Pensamento (busca profunda-raciocínio): um modo de raciocínio agêntico que prioriza o raciocínio estruturado e multietapas e a orquestração de ferramentas/agentes.

O lançamento se concentra em três melhorias visíveis: um pipeline de inferência híbrido que equilibra latência e capacidade, orquestração de agentes/chamadas de ferramentas mais inteligentes e uma janela de contexto substancialmente estendida (anunciada como 128 mil tokens).

Por que isso é importante: O DeepSeek-V3.1 dá continuidade à tendência mais ampla do setor de combinar arquiteturas MoE eficientes em larga escala com primitivas de ferramentas e janelas de contexto muito longas. Essa combinação é importante para agentes corporativos, fluxos de trabalho de busca e raciocínio, sumarização de documentos longos e automação orientada por ferramentas, onde tanto a taxa de transferência quanto a capacidade de "chamar" ferramentas externas de forma determinística são necessárias.

O que torna o DeepSeek-V3.1 diferente das versões anteriores do DeepSeek?

Inferência híbrida: um modelo, dois modos operacionais

A principal mudança arquitetônica é inferência híbridaO DeepSeek descreve a versão 3.1 como compatível com um modo "pensar" e um modo "não pensar" dentro da mesma instância do modelo, selecionáveis ​​alterando o modelo de bate-papo ou uma alternância na interface do usuário (botão "DeepThink" do DeepSeek). Na prática, isso significa que o modelo pode ser instruído a produzir rastros de raciocínio interno (útil para fluxos de trabalho de agentes no estilo cadeia de pensamento) ou a responder diretamente sem expor tokens de raciocínio intermediários — dependendo das necessidades do desenvolvedor. O DeepSeek apresenta isso como um caminho para fluxos de trabalho mais agênticos, permitindo que os aplicativos escolham compensações entre latência e verbosidade.

Janela de contexto maior e primitivas de token

As notas de lançamento oficiais relatam um janela de contexto muito maior na V3.1; os testes da comunidade e as postagens da empresa colocam o contexto estendido em 128 mil tokens Para algumas variantes hospedadas, permitindo conversas substancialmente mais longas, raciocínio em vários documentos ou bases de código extensas para serem alimentadas em uma única sessão. Complementando isso, o DeepSeek supostamente introduz alguns tokens de controle especiais (por exemplo <|search_begin|>/<|search_end|>, <think> / </think>) pretendia estruturar chamadas de ferramentas e delinear segmentos de “pensamento” internamente — um padrão de design que simplifica a coordenação com ferramentas externas.

Habilidades aprimoradas de agentes/ferramentas e melhorias de latência

DeepSeek afirma que a V3.1 se beneficia de otimização pós-treinamento Focado em chamadas de ferramentas e tarefas multietapas para agentes: o modelo fornece respostas mais rapidamente no modo "pensar" do que as versões anteriores do DeepSeek R1 e é mais confiável ao invocar APIs externas ou executar planos multietapas. Esse posicionamento — inferência mais rápida, porém com maior capacidade para agentes — é um claro diferencial do produto para equipes que criam assistentes, automações ou fluxos de trabalho para agentes.

Qual é a arquitetura por trás do DeepSeek-V3.1?

O DeepSeek-V3.1 baseia-se na pesquisa principal da família DeepSeek-V3: uma Mistura de Especialistas (MoE) estrutura básica com um conjunto de inovações arquitetônicas projetadas para eficiência e escala. O relatório técnico público do DeepSeek-V3 (a família subjacente) descreve:

  • Um grande projeto MoE com centenas de bilhões de parâmetros totais e um menor ativado contagem de parâmetros por token (o cartão do modelo lista 671B de parâmetros no total, com aproximadamente 37B ativados por token).
  • Atenção Latente Multicabeçal (MLA) e abordagens de roteamento e dimensionamento DeepSeekMoE personalizadas que reduzem o custo de inferência ao mesmo tempo em que preservam a capacidade.
  • Objetivos de treinamento e estratégias de balanceamento de carga que eliminam a necessidade de termos de perda de balanceamento de carga auxiliares e adotam objetivos de previsão de múltiplos tokens para melhorar o rendimento e a modelagem de sequência.

Por que MoE + MLA?

A combinação de especialistas permite que o modelo mantenha uma alta contagem teórica de parâmetros, ativando apenas um subconjunto de especialistas por token — o que reduz a computação por token. O MLA é a variante de atenção do DeepSeek que ajuda o modelo a escalar as operações de atenção de forma eficiente entre diversos especialistas e contextos longos. Essas opções, em conjunto, tornam viável treinar e atender pontos de verificação muito grandes, mantendo custos de inferência utilizáveis ​​para muitas implantações.

Como o DeepSeek-V3.1 se sai em benchmarks e testes do mundo real?

Como a V3.1 se compara, em palavras

  • Sobre V3 (0324): A versão 3.1 representa uma clara atualização em todos os aspectos, especialmente em tarefas de codificação e agentes. Exemplo: Banco de Códigos ao Vivo pula de 43.0 → 56.4 (não pensante) e → 74.8 (pensamento); Auxiliar-Poliglota da 55.1 → 68.4 / 76.3.
  • Versus R1-0528: R1 continua sendo um forte ponto de comparação “ajustado ao raciocínio”, mas V3.1-Pensar frequentemente é igual ou superior a R1-0528 (AIME/HMMT, LiveCodeBench), ao mesmo tempo em que oferece um caminho não reflexivo para uso de baixa latência.
  • Conhecimentos gerais (variantes MMLU): O V3.1 fica logo abaixo do R1-0528 quando “pensar” é considerado, mas acima do V3 mais antigo.

Conhecimento geral e acadêmico

Referência (métrica)V3.1-Não PensarV3 (0324)V3.1-PensamentoR1-0528
MMLU-Redux (Correspondência exata)91.890.593.793.4
MMLU-Pro (Correspondência exata)83.781.284.885.0
GPQA-Diamante (Passe@1)74.968.480.181.0

O que isso implica: A versão V3.1 melhora em relação à V3 em tarefas acadêmicas/de conhecimento; “pensar” diminui a diferença com a R1 em questões científicas difíceis (GPQA-Diamond).

Codificação (não agente)

Referência (métrica)V3.1-Não PensarV3 (0324)V3.1-PensamentoR1-0528
LiveCodeBench (2408–2505) (Passe@1)56.443.074.873.3
Auxiliar-Poliglota (Precisão)68.455.176.371.6
Codeforces-Div1 (Avaliação)--20911930

Observações:

  • LiveCodeBench (2408–2505) denota uma janela agregada (agosto de 2024 → maio de 2025). Um número maior de Aprovados em 1 reflete uma maior correção na primeira tentativa em diversas tarefas de codificação.
  • Auxiliar-Poliglota simula a edição de código no estilo assistente em muitas linguagens; V3.1-Thinking lidera o conjunto, V3.1-NonThinking é um salto considerável sobre V3 (0324).
  • O cartão modelo mostra V3 (0324) a 55.1% no Aider — consistente com a entrada pública do Aider na tabela de classificação para aquela safra. (As pontuações mais altas da V3.1 são novas no cartão do modelo.)

Codificação (tarefas do agente)

Referência (métrica)V3.1-Não PensarV3 (0324)V3.1-PensamentoR1-0528
Verificado pela SWE (Modo agente)66.045.4-44.6
SWE-bench Multilíngue (Modo agente)54.529.3-30.5
Terminal-bancada (Estrutura do Terminal 1)31.313.3-5.7

Advertência importante: Esses são avaliações de agentes usando estruturas internas do DeepSeek (ferramentas, execução em várias etapas), não testes puros de decodificação do próximo token. Eles capturam a capacidade de "LLM + orquestração". Trate-os como sistema. resultados (a reprodutibilidade pode depender da pilha exata do agente e das configurações).

Raciocínio matemático e competitivo

Referência (métrica)V3.1-Não PensarV3 (0324)V3.1-PensamentoR1-0528
AIME 2024 See More (Passe@1)66.359.493.191.4
AIME 2025 See More (Passe@1)49.851.388.487.5
HMMT 2025 (Passe@1)33.529.284.279.4

Leve em conta: O modo “pensamento” impulsiona muito grande elevações em conjuntos de concursos de matemática — V3.1-Thinking supera R1-0528 em AIME/HMMT nas execuções relatadas.

QA ampliado por pesquisa / “agente”

Referência (métrica)V3.1-Não PensarV3 (0324)V3.1-PensamentoR1-0528
Navegar Comp--30.08.9
BrowseComp_zh--49.235.7
O Último Exame da Humanidade (Python + Pesquisa)--29.824.8
SimpleQA--93.492.3
O Último Exame da Humanidade (somente texto)--15.917.7

Nota: O DeepSeek afirma que os resultados do agente de busca utilizam sua estrutura de busca interna (API de busca comercial + filtragem de páginas, contexto de 128K). A metodologia é importante aqui; a reprodução requer ferramentas semelhantes.

Quais são as limitações e o caminho a seguir?

O DeepSeek-V3.1 é uma importante etapa de engenharia e desenvolvimento de produto: ele une treinamento de longo contexto, modelos híbridos e arquitetura MoE em um ponto de verificação amplamente utilizável. No entanto, ainda existem limitações:

  • A segurança do agente no mundo real, a alucinação em sumarização de longo contexto e o comportamento imediato adversário ainda exigem mitigações em nível de sistema.
  • Os benchmarks são encorajadores, mas não uniformes: o desempenho varia de acordo com o domínio, o idioma e o conjunto de avaliação; a validação independente é necessária.
  • Fatores geopolíticos e da cadeia de suprimentos — disponibilidade de hardware e compatibilidade de chips — afetaram anteriormente o cronograma da DeepSeek e podem influenciar a maneira como os clientes implementam em escala.

Introdução via CometAPI

A CometAPI é uma plataforma de API unificada que agrega mais de 500 modelos de IA de provedores líderes — como a série GPT da OpenAI, a Gemini do Google, a Claude da Anthropic, a Midjourney e a Suno, entre outros — em uma interface única e amigável ao desenvolvedor. Ao oferecer autenticação, formatação de solicitações e tratamento de respostas consistentes, a CometAPI simplifica drasticamente a integração de recursos de IA em seus aplicativos. Seja para criar chatbots, geradores de imagens, compositores musicais ou pipelines de análise baseados em dados, a CometAPI permite iterar mais rapidamente, controlar custos e permanecer independente de fornecedores — tudo isso enquanto aproveita os avanços mais recentes em todo o ecossistema de IA.

Os desenvolvedores podem acessar DeepSeek R1(deepseek-r1-0528) e DeepSeek-V3.1 através CometAPI, as versões mais recentes dos modelos listados são as da data de publicação do artigo. Para começar, explore os recursos do modelo no Playground e consulte o Guia de API para obter instruções detalhadas. Antes de acessar, certifique-se de ter feito login no CometAPI e obtido a chave da API. CometAPI oferecem um preço muito mais baixo que o preço oficial para ajudar você a se integrar.

Conclusão

O DeepSeek-V3.1 representa uma atualização pragmática e voltada para a engenharia: uma janela de contexto maior, inferência híbrida de pensamento/não pensamento, interações de ferramentas aprimoradas e uma API compatível com OpenAI o tornam uma opção atraente para equipes que estão construindo assistentes de agente, aplicações de contexto longo e fluxos de trabalho orientados a código de baixo custo.

Leia Mais

500+ Modelos em Uma API

Até 20% de Desconto