DeepSeek revela DeepSeek R1-0528: Novidades e desempenho

CometAPI
AnnaMay 29, 2025
DeepSeek revela DeepSeek R1-0528: Novidades e desempenho

A startup chinesa de IA DeepSeek lançou hoje uma atualização incremental, porém impactante, de seu principal modelo de raciocínio R1, designado DeepSeek R1-0528, na plataforma Hugging Face. Publicado sob a licença permissiva do MIT em 28 de maio de 2025A atualização se baseia na versão original R1, de janeiro de 2025, que demonstrou pela primeira vez que modelos de linguagem de código aberto poderiam rivalizar com ofertas proprietárias em desempenho e custo-benefício. Apesar de ser descrita internamente como uma "pequena atualização de teste", a R1-0528 incorpora melhorias substanciais em sofisticação de raciocínio, precisão de síntese de código e confiabilidade do modelo.

Destaques da atualização do DeepSeek R1

“Pensamento” contextual estendido

Aproveitando camadas de Mistura de Especialistas (MoE) e mecanismos de atenção otimizados, o R1-0528 pode sustentar cadeias mais profundas de raciocínio ao longo de entradas prolongadas, tornando-o adequado para fluxos de trabalho que exigem retenção de contexto estendida ().

Maior confiabilidade e consistência

Os desenvolvedores relatam resultados mais estáveis ​​em prompts repetidos, com variação reduzida na qualidade das respostas e menos erros de tempo limite ao lidar com consultas longas e ricas em contexto.

Raciocínio Aprimorado

A arquitetura subjacente permanece em 671 bilhões de parâmetros, aproveitando os mesmos mecanismos de atenção do deepseek R1 original, mas com pesos refinados e maior capacidade de “pensamento”.

Avaliações internas mostram ganhos mensuráveis ​​em benchmarks intensivos em lógica, com inferência multietapas mais coerente em consultas complexas.

Geração de código superior

Os benchmarks do LiveCodeBench relatam ganhos claros na codificação assistida por IA: o R1-0528 agora é classificado como o principal modelo de origem chinesa para tarefas de codificação, atrás apenas das configurações o4-mini-high, o3-high e o4-mini-medium da OpenAI.

Supera o Qwen 3 da Alibaba e o Claude 3.7 da Anthropic em precisão e eficiência de codificação.


Performance Técnica

Métrica/BenchmarkR1-0528R1 (janeiro de 2025)Proprietário Líder
Pontuação composta de LLMMediana 69.45~ 67.8OpenAI o3/o4-mini (~70–72)
Classificação de geração de código#1 entre os modelos chineses; #4 no geral no mundo#2 entre os modelos chinesesPor trás do OpenAI o4-mini e o3; à frente do Grok 3 mini
Janela de contexto163 840 fichas (≈2 × original)81 fichasComparável ao OpenAI o3-high
Eficiência de Inferência37 b parâmetros ativos / 671 b no totalMesmoSemelhante a outros grandes softwares de código aberto

Plataformas de referência:

LiveCodeBench: O R1-0528 fica logo abaixo do o4-mini e do o3 da OpenAI em tarefas de codificação, superando o Grok 3 mini da xAI e o Qwen 3 da Alibaba.

Agregados LLM compostos (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Produz um desempenho mediano de 69.45, colocando-o a uma distância impressionante das ofertas de Claude e Gemini (Analytics Vidhya).

DeepSeek revela DeepSeek R1-0528: Novidades e desempenho

Memória e Contexto:

A janela de contexto expandida oferece suporte a bases de código, documentos longos e diálogos de várias etapas com perda mínima de coerência.

Licenciamento de código aberto e acessibilidade

Lançados sem um cartão de modelo público no Hugging Face, os pesos e arquivos de configuração do R1-0528 são, no entanto, totalmente acessíveis sob o Licença MIT, permitindo uso comercial irrestrito e modificações conduzidas pela comunidade. A escolha da licença pela DeepSeek dá continuidade à sua estratégia de disseminação de "pesos abertos", garantindo que instituições de pesquisa e startups possam integrar o modelo sem ônus.


Impacto de mercado e cenário competitivo

O lançamento da versão R1 do DeepSeek em janeiro de 2025 rompeu com as premissas predominantes sobre o custo e a escala necessários para IA de ponta, levando rivais nos EUA a ajustar os preços e introduzir modelos mais leves (por exemplo, o o3 Mini da OpenAI). Com a versão R1-0528, o DeepSeek reafirma sua posição como o principal concorrente de código aberto, impulsionando a concorrência em termos de desempenho e preço contra OpenAI, Google Gemini, Alibaba e Anthropic.


Perspectiva futura

Desde o seu lançamento em janeiro, o DeepSeek R1 já provocou respostas estratégicas de grandes players de IA — influenciando principalmente os ajustes de preços da OpenAI e o roteiro do Google para os modelos Gemini. Espera-se que a atualização R1-0528 intensifique a pressão competitiva, especialmente entre empresas que buscam alternativas econômicas e de alto desempenho aos LLMs proprietários. Enquanto isso, reguladores dos EUA levantaram preocupações de segurança nacional sobre os rápidos avanços do DeepSeek, ressaltando os riscos geopolíticos da proliferação de IA de código aberto.

Começando a jornada

A CometAPI fornece uma interface REST unificada que agrega centenas de modelos de IA — em um endpoint consistente, com gerenciamento de chaves de API, cotas de uso e painéis de faturamento integrados. Em vez de lidar com várias URLs e credenciais de fornecedores.

Os desenvolvedores podem acessar as últimas API DeepSeek R1 (nome do modelo: deepseek-r1-0528) Através CometAPIPara começar, explore as capacidades do modelo no Playground e consulte o Guia de API Para instruções detalhadas, acesse o CometAPI. Antes de acessar, certifique-se de ter feito login no CometAPI e obtido a chave da API. O preço está disponível no CometAPI:

  • Tokens de entrada: $ 0.44 / M tokens
  • Tokens de saída: $ 1.752 / M tokens
SHARE THIS BLOG

500+ Modelos em Uma API

Até 20% de Desconto