DeepSeek presenta DeepSeek R1-0528: novedades y rendimiento

CometAPI
AnnaMay 28, 2025
DeepSeek presenta DeepSeek R1-0528: novedades y rendimiento

La startup china de inteligencia artificial DeepSeek lanzó hoy una actualización incremental pero impactante de su modelo de razonamiento insignia R1, denominado Búsqueda profunda R1-0528, en la plataforma Hugging Face. Publicado bajo la licencia permisiva del MIT en 28 de Marzo de 2025Esta actualización se basa en la versión original R1 de enero de 2025, que demostró por primera vez que los modelos de lenguaje de código abierto podían competir con las ofertas propietarias tanto en rendimiento como en rentabilidad. A pesar de describirse internamente como una "actualización de prueba menor", la R1-0528 incorpora mejoras sustanciales en la sofisticación del razonamiento, la precisión de la síntesis de código y la fiabilidad del modelo.

Actualización de los aspectos más destacados de DeepSeek R1

“Pensamiento” contextual extendido

Al aprovechar las capas de mezcla de expertos (MoE) y los mecanismos de atención optimizados, R1-0528 puede sustentar cadenas de razonamiento más profundas a lo largo de entradas prolongadas, lo que lo hace ideal para flujos de trabajo que exigen una retención de contexto extendida ().

Mayor confiabilidad y consistencia

Los desarrolladores informan resultados más estables en indicaciones repetidas, con una variación reducida en la calidad de la respuesta y menos errores de tiempo de espera al manejar consultas largas y ricas en contexto.

Razonamiento mejorado

La arquitectura subyacente permanece en 671 mil millones de parámetros, aprovechando los mismos mecanismos de atención que el deepseek R1 original pero con pesos refinados y una capacidad de “pensamiento” más prolongada.

Las evaluaciones internas muestran ganancias mensurables en puntos de referencia con uso intensivo de lógica, con una inferencia de múltiples pasos más coherente en consultas complejas.

Generación de código superior

Los puntos de referencia de LiveCodeBench informan ganancias claras en la codificación asistida por IA: R1-0528 ahora se ubica como el principal modelo de origen chino para tareas de código, solo detrás de las configuraciones o4-mini-high, o3-high y o4-mini-medium de OpenAI.

Supera a Qwen 3 de Alibaba y a Claude 3.7 de Anthropic en precisión y eficiencia de codificación.


Presentación técnica

Métrica/Punto de referenciaR1-0528R1 (enero de 2025)Líder propietario
Puntuación compuesta de LLMMediana 69.45~ 67.8OpenAI o3/o4-mini (~70–72)
Rango de generación de código#1 entre los modelos chinos; en general, el número 4 a nivel mundial#2 entre los modelos chinosDetrás de OpenAI o4-mini & o3; por delante de Grok 3 mini
Ventana de contexto163 840 fichas (≈2 × originales)81 tokensComparable a OpenAI o3-high
Eficiencia de inferencia37 b parámetros activos / 671 b en totalmismosSimilar a otros grandes proyectos de código abierto

Plataformas de referencia:

LiveCodeBench: La posición R1-0528 se sitúa justo debajo de o4-mini y o3 de OpenAI en tareas de codificación, superando a Grok 3 mini de xAI y a Qwen 3 de Alibaba.

Agregados LLM compuestos (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Produce un rendimiento medio de 69.45, colocándolo a una distancia sorprendente de las ofertas de Claude y Gemini (Analytics Vidhya).

DeepSeek presenta DeepSeek R1-0528: novedades y rendimiento

Memoria y contexto:

La ventana de contexto ampliada admite bases de código, documentos de formato largo y diálogos de varios turnos con una pérdida mínima de coherencia.

Licencias y accesibilidad de código abierto

Aunque se lanzó sin una tarjeta de modelo pública en Hugging Face, los pesos y archivos de configuración del R1-0528 son, sin embargo, completamente accesibles en Licencia MIT, lo que permite el uso comercial sin restricciones y modificaciones impulsadas por la comunidad. La elección de la licencia por parte de DeepSeek continúa su estrategia de difusión de "pesos abiertos", lo que garantiza que tanto las instituciones de investigación como las startups puedan integrar el modelo sin problemas.


Impacto del mercado y panorama competitivo

El lanzamiento de la versión R1 de DeepSeek en enero de 2025 trastocó las previsiones sobre el coste y la escala necesarios para la IA de vanguardia, lo que impulsó a sus rivales estadounidenses a ajustar sus precios e introducir modelos más ligeros (por ejemplo, el o3 Mini de OpenAI). Con la versión R1-0528, DeepSeek reafirma su posición como líder en código abierto, impulsando la competencia tanto en rendimiento como en precio contra OpenAI, Google Gemini, Alibaba y Anthropic.


Perspectiva del futuro

Desde su lanzamiento en enero, DeepSeek R1 ya ha generado respuestas estratégicas de los principales actores de la IA, influyendo notablemente en los ajustes de precios de OpenAI y la hoja de ruta de Google para los modelos Gemini. Se espera que la actualización R1-0528 intensifique la presión competitiva, especialmente entre las empresas que buscan alternativas rentables y de alto rendimiento a las LLM propietarias. Mientras tanto, los reguladores estadounidenses han expresado su preocupación por la seguridad nacional ante los rápidos avances de DeepSeek, lo que pone de relieve los riesgos geopolíticos de la proliferación de la IA de código abierto.

Primeros Pasos

CometAPI proporciona una interfaz REST unificada que integra cientos de modelos de IA en un único punto de conexión, con gestión de claves API integrada, cuotas de uso y paneles de facturación. En lugar de tener que gestionar múltiples URL y credenciales de proveedores.

Los desarrolladores pueden acceder a las últimas novedades API de DeepSeek R1 (nombre del modelo: deepseek-r1-0528) A través CometAPIPara comenzar, explore las capacidades del modelo en el Playground y consultar el Guía de API Para obtener instrucciones detalladas, antes de acceder, asegúrese de haber iniciado sesión en CometAPI y de haber obtenido la clave API. Consulte el precio en CometAPI:

  • Tokens de entrada: $0.44/M tokens
  • Tokens de salida: $1.752/M tokens
Leer Más

500+ Modelos en Una API

Hasta 20% de Descuento