Actualización de DeepSeek: qué cambió, qué hay de nuevo y por qué importa

CometAPI
AnnaFeb 15, 2026
Actualización de DeepSeek: qué cambió, qué hay de nuevo y por qué importa

En febrero de 2026, la startup china de IA DeepSeek lanzó una actualización significativa de su aplicación en línea e interfaz web, señalando impulso hacia su lanzamiento de modelo de próxima generación, DeepSeek V4. Si bien la actualización llega antes del modelo V4 completo, ya ha generado conversaciones entre usuarios y observadores de la industria por sus cambios en el comportamiento de interacción, capacidades de contexto largo y pruebas preparatorias para potencial futuro.

DeepSeek irrumpió en la escena global con sus variantes anteriores—en especial DeepSeek V3.2 y DeepSeek–R1—que combinaron alto desempeño en tareas con escalabilidad rentable. El lanzamiento de R1, en particular, captó la atención internacional a principios de 2025 por sacudir los mercados globales y presionar a la baja el desempeño de las acciones de los competidores, ilustrando el potencial disruptivo de DeepSeek.

¿Qué cambió exactamente en la reciente actualización de DeepSeek?

¿Qué versión es esta y qué cambió?

La reciente actualización afecta a la aplicación en línea e interfaz web de DeepSeek, pero crucialmente aún no al modelo de la API. Según múltiples fuentes:

  • La actualización actual de la aplicación se describe mejor como una prueba de estructura de contexto largo — habilitando que usuarios web y de la app accedan a soporte de hasta 1 millón de tokens de contexto. Esto es un salto significativo desde la ventana de contexto de ~128 K en la oferta de API de DeepSeek V3.2.
  • La mejora aumenta la memoria efectiva para una sola conversación o tarea, permitiendo que el modelo recuerde y procese mucha más información. Los reportes indican que esto equivale a 10× la capacidad de memoria previa — un avance para razonamientos de múltiples etapas y de larga duración.
  • En términos de denominación de versión, la mayoría de las señales públicas sugieren que esta actualización es un impulso técnico previo a V4 — aún no el lanzamiento formal de DeepSeek V4, pero claramente preparatorio.

Bajo el capó: ¿Qué impulsa el cambio?

Tras bambalinas, el repositorio de GitHub de DeepSeek revela adiciones etiquetadas con un identificador interno (“MODEL1”), lo que sugiere una nueva arquitectura de modelo distinta de V3.2. La estructura del código apunta a técnicas de optimización de memoria, mejoras de soporte FP8 y compatibilidad con las arquitecturas de GPU más recientes de Nvidia — componentes clave esperados en DeepSeek V4.

Además, DeepSeek ha publicado investigación sobre “Engram,” un módulo de búsqueda de memoria que replantea cómo los modelos de lenguaje grandes gestionan contextos largos y hechos críticos. Engram parece posicionarse como una tecnología fundacional para la próxima generación — posiblemente impulsando las capacidades de memoria extendida de DeepSeek V4.

Reacciones de los usuarios

El despliegue ha provocado una amplia gama de respuestas:

  • Por un lado, muchos usuarios están entusiasmados con la expansión del contexto y su potencial para interacciones más profundas y resolución de problemas más compleja.
  • Por otro lado, una parte significativa de usuarios ha comentado públicamente sobre cambios en el tono y estilo conversacional, describiendo las respuestas como menos atractivas, menos empáticas o simplemente “más frías” que antes — generando discusiones virales en redes sociales.

Esta divergencia resalta una realidad importante del despliegue de IA: las mejoras de capacidad técnica pueden remodelar la experiencia del usuario de maneras inesperadas, requiriendo refinamiento iterativo antes del lanzamiento final.

¿Cuáles son las características clave de esta actualización?

1. Expansión masiva del contexto

El soporte de hasta 1 millón de tokens de contexto en la interacción web/app convierte a DeepSeek en uno de los pocos modelos capaces de comprensión global, sin cortes, de transcripciones largas, bases de código, documentos legales o libros enteros en una sesión. Esto tiene grandes implicaciones para usos del mundo real, desde investigación y escritura hasta análisis documental empresarial.

2. Cambios en el estilo de interacción

El reciente despliegue ha cambiado notablemente el tono conversacional de DeepSeek. Muchos usuarios han señalado que la interacción del modelo actualizado parece más neutral o “simple” — usando identificadores genéricos como “User” en lugar de apodos personalizados y ofreciendo respuestas más concisas en modos de razonamiento profundo. Estos cambios de estilo han generado revuelo en plataformas sociales, con algunos usuarios expresando incomodidad o sorpresa.

3. Corte de conocimiento y contexto actualizado

La base de conocimiento detrás de la app se actualizó para reflejar información hasta mayo de 2025, aunque el servicio de la API permanece en V3.2 con su anterior corte de conocimiento. Esta división sugiere que DeepSeek está experimentando con mejoras incrementales antes de una actualización completa de la plataforma V4.

4. Preparativos para la integración de V4

Un objetivo estratégico claro de la actualización es probar la infraestructura y la experiencia del usuario antes de la próxima DeepSeek V4. El soporte de contexto grande y los cambios de memoria probablemente sirven como prueba de estrés en el mundo real para las arquitecturas ahora en desarrollo — ayudando a los desarrolladores a evaluar desempeño, confiabilidad y retroalimentación antes del despliegue completo.

¿Qué nuevas características técnicas incluye la Actualización y cómo funcionan?

Reacciones de los usuarios

El despliegue ha provocado una amplia gama de respuestas:

  • Por un lado, muchos usuarios están entusiasmados con la expansión del contexto y su potencial para interacciones más profundas y resolución de problemas más compleja.
  • Por otro lado, una parte significativa de usuarios ha comentado públicamente sobre cambios en el tono y estilo conversacional, describiendo las respuestas como menos atractivas, menos empáticas o simplemente “más frías” que antes — generando discusiones virales en redes sociales.

Esta divergencia resalta una realidad importante del despliegue de IA: las mejoras de capacidad técnica pueden remodelar la experiencia del usuario de maneras inesperadas, requiriendo refinamiento iterativo antes del lanzamiento final.

Engram: memoria condicional para recuerdo selectivo

Engram es la idea estrella de la actualización. Conceptualmente es un mecanismo de recuperación condicionada incrustado dentro de la arquitectura del modelo: cuando la entrada contiene señales vinculadas a engramas almacenados, la red recupera representaciones vectoriales precomputadas para complementar (o a veces reemplazar) capas costosas de inferencia. El beneficio declarado es doble: reducir el cómputo repetido sobre conocimiento estático, y proporcionar un mecanismo robusto para actualizar o parchear la memoria fáctica sin reentrenar el modelo completo. Resúmenes técnicos y adelantos para desarrolladores muestran que Engram está pensado tanto para conocimiento de código (bibliotecas, firmas de funciones) como para recuerdo factual a través de documentos.

mHC (hiperconexiones restringidas por variedad)

mHC, según se presenta en el adelanto y notas técnicas de soporte, es una estrategia arquitectónica orientada a restringir las interacciones de parámetros a subvariedades significativas. Esa restricción reduce el número de activaciones por pares que deben computarse, mejorando la eficiencia de cómputo tanto en entrenamiento como en inferencia. La teoría es que se preserva el poder expresivo donde importa (subvariedades relevantes a la tarea) mientras se recorta el cómputo inútil en otros lugares — extrayendo más utilidad del mismo hardware. Las descripciones iniciales son técnicas y prometedoras, pero también plantean preguntas de implementación y verificación (ver abajo).

DeepSeek Sparse Attention (DSA) y contextos de un millón de tokens

Una de las afirmaciones más tangibles es el soporte para contextos de 1M+ tokens mediante una mezcla de técnicas de atención dispersa y lógica de activación dinámica. Si se materializa en producción, esto permite que una sola pasada de inferencia considere repositorios completos, transcripciones largas o parches multiarquivo — un impulso para tareas como resumen de bases de código, refactorizaciones en múltiples archivos y agentes conversacionales extensos. Materiales de adelanto y benchmarks del proveedor reportan rendimiento en contextos grandes y sugieren ganancias de eficiencia significativas comparadas con algunos competidores. La verificación independiente todavía es limitada en esta etapa.

¿Qué podemos esperar a continuación — y qué nos dice esta actualización sobre DeepSeek v4?

Respuesta corta: la actualización pública es tanto una mejora funcional como una plataforma de lanzamiento para algo mayor. Los informes de la industria y el propio cronograma de DeepSeek apuntan a un lanzamiento inminente de v4 (previsto para la ventana del Año Nuevo Lunar) que probablemente empaquete memoria de contexto largo, una arquitectura de memoria especializada tipo Engram y capacidades mejoradas de programación y agentes.

A continuación, una especulación cuidadosa basada en evidencias sobre lo que probablemente incluirá DeepSeek v4 — sustentada en las señales de cambio actuales y las expectativas de la industria.

Expectativa 1 — Memoria nativa de larga duración y recuperación indexada

Dadas las pruebas de un millón de tokens en la app y el enfoque explícito en agentes en V3.2, v4 probablemente formalice un subsystema de memoria que persista conocimiento indexado a través de sesiones (no solo un contexto efímero más grande). Ese subsistema combinaría:

  • Recuperación densa sobre embeddings almacenados.
  • Segmentación eficiente para equilibrar latencia y costo en tokens.
  • Una capa de coherencia para encajar los fragmentos recuperados en la ventana de contexto interna del modelo.

Si se implementa, permitiría que los agentes mantengan personalidades persistentes, preferencias del usuario e historiales de proyecto ricos sin reingestar datos en cada sesión.

Expectativa 2 — Generación de código especializada y razonamiento multiarquivo

La destreza en programación como prioridad para v4, insinuando optimizaciones del modelo y mejoras de benchmark orientadas a flujos de trabajo de desarrolladores. Espera capacidades nativas de refactorización en múltiples archivos, mejora en síntesis de pruebas unitarias y generación de código consciente de herramientas que pueda ejecutar, evaluar e iterar sobre el código mediante cadenas de herramientas en entornos aislados. Estas son exactamente las tareas que habilitan los modelos de contexto largo.

Expectativa 3 — Mayor énfasis en seguridad y verificación de agentes

Dada la escrutinio pública sobre prácticas de entrenamiento, es probable que DeepSeek priorice la auditabilidad: registros de entrenamiento reproducibles, declaraciones de procedencia más claras y mitigaciones de seguridad reforzadas que señalen alucinaciones o lagunas de procedencia durante interacciones con herramientas de múltiples pasos. Espera funciones de producto que hagan visible la procedencia para clientes empresariales e investigadores.

Expectativa 4 — Hoja de ruta competitiva y ecosistema de socios

La hoja de ruta de v4 será leída como señal de mercado por actores nacionales y globales. Con rivales lanzando actualizaciones agresivas (desde grandes jugadores enfocando eficiencia y despliegue móvil hasta nichos que redoblan en modelos open-source), DeepSeek debe equilibrar apertura y defensibilidad. Si v4 ofrece ganancias significativas a menor costo, acelerará la tendencia hacia modelos de alta capacidad asequibles en China y más allá — y probablemente intensificará el escrutinio normativo transfronterizo.

En conclusión: Una fuerza creciente en IA

La reciente actualización de DeepSeek marca un paso significativo hacia una transformación más amplia en la inteligencia artificial. Aunque la compañía aún no ha lanzado completamente V4, las mejoras de vista previa — especialmente en longitud de contexto y reestructuración interactiva — revelan un compromiso por impulsar las capacidades de los LLM. Con V4 en el horizonte, DeepSeek está preparado para ser una figura central en la próxima era de IA a gran escala, rentable y de alto rendimiento.

Los desarrolladores pueden acceder a la Deepseek API a través de CometAPI ahora. Para comenzar, explora las capacidades del modelo en el Playground y consulta la API guide para instrucciones detalladas. Antes de acceder, asegúrate de haber iniciado sesión en CometAPI y obtenido la clave de API. CometAPI ofrece un precio mucho más bajo que el oficial para ayudarte a integrar.

Ready to Go?→ Sign up fo Deepseek today !

Si quieres conocer más consejos, guías y noticias sobre IA, síguenos en VK, X y Discord!

Leer Más

500+ Modelos en Una API

Hasta 20% de Descuento