DeepSeek V3.2 en la serie V3 de DeepSeek: una gran familia de modelos de lenguaje “inferencia primero” optimizada para el uso de herramientas agenticas, razonamiento de contexto largo e implementación rentable.
¿Qué es DeepSeek v3.2?
Búsqueda profunda v3.2 es el último lanzamiento de producción de DeepSeek V3 Familia: una gran familia de modelos de lenguaje de peso abierto que prioriza el razonamiento, diseñada para comprensión del contexto largo, uso robusto de agentes y herramientas, razonamiento avanzado, codificación y matemáticasLa versión incluye múltiples variantes (la versión de producción V3.2 y una versión especial V3.2 de alto rendimiento). El proyecto prioriza la inferencia de contexto largo y rentable mediante un nuevo mecanismo de atención dispersa llamado Atención dispersa de DeepSeek (DSA) y agentes/flujos de trabajo “pensantes” (“Pensar en el uso de herramientas”).
Características principales (alto nivel)
- Atención dispersa de DeepSeek (DSA): un mecanismo de atención dispersa destinado a reducir drásticamente el cómputo en escenarios de contexto largo, preservando al mismo tiempo el razonamiento de largo alcance. (Afirmación de investigación principal; utilizada en
V3.2-Exp.) - Pensamiento agente + integración del uso de herramientas: La versión 3.2 pone énfasis en la incorporación del “pensamiento” en el uso de herramientas: el modelo puede operar en modos de razonamiento-pensamiento y en modos sin pensamiento (normales) al llamar herramientas, lo que mejora la toma de decisiones en tareas de varios pasos y la orquestación de herramientas.
- Canalización de síntesis de datos de agentes a gran escala: DeepSeek informa sobre un corpus de entrenamiento y una cadena de síntesis de agentes que abarca miles de entornos y decenas de miles de instrucciones complejas para mejorar la robustez de las tareas interactivas.
- **Atención dispersa de DeepSeek (DSA)**DSA es un método de atención dispersa de grano fino introducido en la línea V3.2 (primero en V3.2-Exp) que reduce la complejidad de la atención (de un estilo O(L²) ingenuo a uno O(L·k) con k ≪ L), seleccionando un conjunto más pequeño de tokens clave/valor por token de consulta. El resultado es un consumo de memoria/cómputo considerablemente menor para contextos muy largos (128 K), lo que abarata considerablemente la inferencia de contextos largos.
- Red troncal de mezcla de expertos (MoE) y atención latente multicabezal (MLA):La familia V3 utiliza MoE para aumentar la capacidad de manera eficiente (grandes recuentos de parámetros nominales con activación limitada por token) junto con métodos MLA para mantener la calidad y controlar el cómputo.
Especificaciones técnicas (tabla concisa)
- Rango de parámetros nominales: ~671B – 685B (depende de la variante).
- Ventana de contexto (referencia documentada): Tokens 128,000 (128K) en configuraciones de referencia/vLLM.
- Nota: DeepSeek Sparse Attention (DSA) + MLA; complejidad de atención reducida para contextos largos.
- Precisión numérica y de entrenamiento: BF16/F32 y formatos cuantificados comprimidos (F8_E4M3 etc.) disponibles para distribución.
- Familia arquitectónica: Columna vertebral de MoE (mezcla de expertos) con economía de activación por token.
- Entrada/salida: entrada de texto tokenizada estándar (formatos de chat/mensajes compatibles); admite llamadas de herramientas (primitivas de API de uso de herramientas) y llamadas de estilo chat interactivo y finalizaciones programáticas a través de API.
- Variantes ofrecidas:
v3.2,v3.2-Exp(experimental, debut en DSA),v3.2-Speciale(razonamiento primero, solo API, corto plazo).
Rendimiento de referencia
Alta computación V3.2-Speciale Alcanza la paridad o incluso supera a los modelos contemporáneos de alto nivel en diversos parámetros de razonamiento, matemáticas y programación, y alcanza las mejores calificaciones en conjuntos de problemas matemáticos de élite seleccionados. La preimpresión destaca la paridad con modelos como GPT-5/Kimi K2 en determinados parámetros de razonamiento, así como mejoras específicas respecto a las versiones base anteriores de DeepSeek R1/V3:
- OBJETIVO: mejorado de 70.0 a 87.5 (Δ +17.5).
- Acreditación de calidad general: 71.5 → 81.0 (Δ +9.5).
- LCB_v6: 63.5 → 73.3 (Δ +9.8).
- Ayudar: 57.0 → 71.6 (Δ +14.6).
Comparación con otros modelos (alto nivel)
- Vs GPT-5 / Gemini 3 Pro (afirmaciones públicas): Los autores de DeepSeek y varios medios de prensa afirman que la variante Speciale tiene paridad o superioridad en tareas de razonamiento y codificación seleccionadas, al tiempo que destacan la rentabilidad y las licencias abiertas como diferenciadores.
- Vs modelos abiertos (Olmo, Nemotron, Moonshot, etc.): DeepSeek destaca el entrenamiento agente y DSA como diferenciadores clave para la eficiencia en contextos largos.
Casos de uso representativos
- Sistemas agentes/orquestación: agentes multiherramienta (API, raspadores web, conectores de ejecución de código) que se benefician del “pensamiento” a nivel de modelo + primitivos de llamada de herramientas explícitas.
- Razonamiento/análisis de documentos extensos: Documentos legales, grandes corpus de investigación, transcripciones de reuniones: las variantes de contexto largo (128 000 tokens) le permiten mantener contextos muy grandes en una sola llamada.
- Asistencia en matemáticas complejas y codificación:
V3.2-SpecialeSe promociona para razonamiento matemático avanzado y tareas extensas de depuración de código según los puntos de referencia del proveedor. - Implementaciones de producción sensibles a los costos: Los cambios de precios de DSA + tienen como objetivo reducir los costos de inferencia para cargas de trabajo de alto contexto.
Cómo empezar a utilizarloBúsqueda profunda v3.2 API
Búsqueda profunda v3.2 Precios de API en CometAPI: 20 % de descuento sobre el precio oficial.
| Tokens de entrada | $0.22 |
| Fichas de salida | $0.35 |
Pasos requeridos
- Inicia sesión en cometapi.comSi aún no eres nuestro usuario, por favor regístrate primero.
- Obtenga la clave API de credenciales de acceso de la interfaz. Haga clic en "Agregar token" en el token API del centro personal, obtenga la clave del token: sk-xxxxx y envíe.
- Obtenga la URL de este sitio: https://api.cometapi.com/
Método de uso
- Seleccione la opción "
deepseek-v3.2Punto final para enviar la solicitud de API y configurar el cuerpo de la solicitud. El método y el cuerpo de la solicitud se obtienen de la documentación de la API de nuestro sitio web. Nuestro sitio web también ofrece la prueba de Apifox para su comodidad. - Reemplazar con su clave CometAPI real de su cuenta.
- Seleccione Chat Formato: Inserte su pregunta o solicitud en el campo de contenido: esto es a lo que responderá el modelo.
- .Procese la respuesta de la API para obtener la respuesta generada.
