API de Deepseek v3.2

CometAPI
AnnaDec 3, 2025
API de Deepseek v3.2

DeepSeek V3.2 en la serie V3 de DeepSeek: una gran familia de modelos de lenguaje “inferencia primero” optimizada para el uso de herramientas agenticas, razonamiento de contexto largo e implementación rentable.

¿Qué es DeepSeek v3.2?

Búsqueda profunda v3.2 es el último lanzamiento de producción de DeepSeek V3 Familia: una gran familia de modelos de lenguaje de peso abierto que prioriza el razonamiento, diseñada para comprensión del contexto largo, uso robusto de agentes y herramientas, razonamiento avanzado, codificación y matemáticasLa versión incluye múltiples variantes (la versión de producción V3.2 y una versión especial V3.2 de alto rendimiento). El proyecto prioriza la inferencia de contexto largo y rentable mediante un nuevo mecanismo de atención dispersa llamado Atención dispersa de DeepSeek (DSA) y agentes/flujos de trabajo “pensantes” (“Pensar en el uso de herramientas”).

Características principales (alto nivel)

  • Atención dispersa de DeepSeek (DSA): un mecanismo de atención dispersa destinado a reducir drásticamente el cómputo en escenarios de contexto largo, preservando al mismo tiempo el razonamiento de largo alcance. (Afirmación de investigación principal; utilizada en V3.2-Exp.)
  • Pensamiento agente + integración del uso de herramientas: La versión 3.2 pone énfasis en la incorporación del “pensamiento” en el uso de herramientas: el modelo puede operar en modos de razonamiento-pensamiento y en modos sin pensamiento (normales) al llamar herramientas, lo que mejora la toma de decisiones en tareas de varios pasos y la orquestación de herramientas.
  • Canalización de síntesis de datos de agentes a gran escala: DeepSeek informa sobre un corpus de entrenamiento y una cadena de síntesis de agentes que abarca miles de entornos y decenas de miles de instrucciones complejas para mejorar la robustez de las tareas interactivas.
  • **Atención dispersa de DeepSeek (DSA)**DSA es un método de atención dispersa de grano fino introducido en la línea V3.2 (primero en V3.2-Exp) que reduce la complejidad de la atención (de un estilo O(L²) ingenuo a uno O(L·k) con k ≪ L), seleccionando un conjunto más pequeño de tokens clave/valor por token de consulta. El resultado es un consumo de memoria/cómputo considerablemente menor para contextos muy largos (128 K), lo que abarata considerablemente la inferencia de contextos largos.
  • Red troncal de mezcla de expertos (MoE) y atención latente multicabezal (MLA):La familia V3 utiliza MoE para aumentar la capacidad de manera eficiente (grandes recuentos de parámetros nominales con activación limitada por token) junto con métodos MLA para mantener la calidad y controlar el cómputo.

Especificaciones técnicas (tabla concisa)

  • Rango de parámetros nominales: ~671B – 685B (depende de la variante).
  • Ventana de contexto (referencia documentada): Tokens 128,000 (128K) en configuraciones de referencia/vLLM.
  • Nota: DeepSeek Sparse Attention (DSA) + MLA; complejidad de atención reducida para contextos largos.
  • Precisión numérica y de entrenamiento: BF16/F32 y formatos cuantificados comprimidos (F8_E4M3 etc.) disponibles para distribución.
  • Familia arquitectónica: Columna vertebral de MoE (mezcla de expertos) con economía de activación por token.
  • Entrada/salida: entrada de texto tokenizada estándar (formatos de chat/mensajes compatibles); admite llamadas de herramientas (primitivas de API de uso de herramientas) y llamadas de estilo chat interactivo y finalizaciones programáticas a través de API.
  • Variantes ofrecidas: v3.2, v3.2-Exp (experimental, debut en DSA), v3.2-Speciale (razonamiento primero, solo API, corto plazo).

Rendimiento de referencia

Alta computación V3.2-Speciale Alcanza la paridad o incluso supera a los modelos contemporáneos de alto nivel en diversos parámetros de razonamiento, matemáticas y programación, y alcanza las mejores calificaciones en conjuntos de problemas matemáticos de élite seleccionados. La preimpresión destaca la paridad con modelos como GPT-5/Kimi K2 en determinados parámetros de razonamiento, así como mejoras específicas respecto a las versiones base anteriores de DeepSeek R1/V3:

  • OBJETIVO: mejorado de 70.0 a 87.5 (Δ +17.5).
  • Acreditación de calidad general: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Ayudar: 57.0 → 71.6 (Δ +14.6).

Comparación con otros modelos (alto nivel)

  • Vs GPT-5 / Gemini 3 Pro (afirmaciones públicas): Los autores de DeepSeek y varios medios de prensa afirman que la variante Speciale tiene paridad o superioridad en tareas de razonamiento y codificación seleccionadas, al tiempo que destacan la rentabilidad y las licencias abiertas como diferenciadores.
  • Vs modelos abiertos (Olmo, Nemotron, Moonshot, etc.): DeepSeek destaca el entrenamiento agente y DSA como diferenciadores clave para la eficiencia en contextos largos.

Casos de uso representativos

  • Sistemas agentes/orquestación: agentes multiherramienta (API, raspadores web, conectores de ejecución de código) que se benefician del “pensamiento” a nivel de modelo + primitivos de llamada de herramientas explícitas.
  • Razonamiento/análisis de documentos extensos: Documentos legales, grandes corpus de investigación, transcripciones de reuniones: las variantes de contexto largo (128 000 tokens) le permiten mantener contextos muy grandes en una sola llamada.
  • Asistencia en matemáticas complejas y codificación: V3.2-Speciale Se promociona para razonamiento matemático avanzado y tareas extensas de depuración de código según los puntos de referencia del proveedor.
  • Implementaciones de producción sensibles a los costos: Los cambios de precios de DSA + tienen como objetivo reducir los costos de inferencia para cargas de trabajo de alto contexto.

Cómo empezar a utilizarloBúsqueda profunda v3.2 API

Búsqueda profunda v3.2 Precios de API en CometAPI: 20 % de descuento sobre el precio oficial.

Tokens de entrada$0.22
Fichas de salida$0.35

Pasos requeridos

  • Inicia sesión en cometapi.comSi aún no eres nuestro usuario, por favor regístrate primero.
  • Obtenga la clave API de credenciales de acceso de la interfaz. Haga clic en "Agregar token" en el token API del centro personal, obtenga la clave del token: sk-xxxxx y envíe.
  • Obtenga la URL de este sitio: https://api.cometapi.com/

Método de uso

  1. Seleccione la opción "deepseek-v3.2Punto final para enviar la solicitud de API y configurar el cuerpo de la solicitud. El método y el cuerpo de la solicitud se obtienen de la documentación de la API de nuestro sitio web. Nuestro sitio web también ofrece la prueba de Apifox para su comodidad.
  2. Reemplazar con su clave CometAPI real de su cuenta.
  3. Seleccione Chat Formato: Inserte su pregunta o solicitud en el campo de contenido: esto es a lo que responderá el modelo.
  4. .Procese la respuesta de la API para obtener la respuesta generada.
Leer Más

500+ Modelos en Una API

Hasta 20% de Descuento