Especificaciones técnicas de DeepSeek-V4-Flash
| Elemento | Detalles |
|---|---|
| Modelo | DeepSeek-V4-Flash |
| Proveedor | DeepSeek |
| Familia | Serie de vista previa DeepSeek-V4 |
| Arquitectura | Mezcla de expertos (MoE) |
| Parámetros totales | 284B |
| Parámetros activados | 13B |
| Longitud de contexto | 1,000,000 tokens |
| Precisión | Mezcla FP4 + FP8 |
| Modos de razonamiento | Non-think, Think, Think Max |
| Estado de lanzamiento | Modelo de vista previa |
| Licencia | MIT License |
¿Qué es DeepSeek-V4-Flash?
DeepSeek-V4-Flash es el modelo de vista previa de la serie V4 de DeepSeek centrado en la eficiencia. Está construido como un modelo de lenguaje de Mezcla de Expertos con una huella activa relativamente pequeña para su tamaño, lo que ayuda a mantener la capacidad de respuesta y, al mismo tiempo, admite una ventana de contexto muy grande de 1M de tokens.
Características principales de DeepSeek-V4-Flash
- Contexto de un millón de tokens: El modelo admite una ventana de contexto de 1,000,000 tokens, lo que lo hace adecuado para documentos muy largos, grandes bases de código y sesiones de agentes de múltiples pasos.
- Diseño MoE con prioridad en eficiencia: Utiliza 284B de parámetros totales, pero solo 13B de parámetros activados por solicitud, una configuración orientada a inferencias más rápidas y eficientes.
- Tres modos de razonamiento: Non-think, Think y Think Max te permiten intercambiar velocidad por un razonamiento más profundo cuando la tarea se vuelve más difícil.
- Arquitectura sólida para contexto largo: DeepSeek afirma que la serie V4 combina Atención Dispersa Comprimida y Atención Fuertemente Comprimida para mejorar la eficiencia en contextos largos.
- Programación y comportamiento de agentes competitivos: La ficha del modelo informa resultados sólidos en benchmarks de programación y agentes, incluidos HumanEval, SWE Verified, Terminal Bench 2.0 y BrowseComp.
- Pesos abiertos y despliegue local: La versión incluye los pesos del modelo, guía de inferencia local y una MIT License, lo que hace práctico el autoalojamiento y la experimentación.
Rendimiento en benchmarks de DeepSeek-V4-Flash
Resultados seleccionados de la ficha oficial del modelo muestran que DeepSeek-V4-Flash mejora con respecto a DeepSeek-V3.2-Base en varios benchmarks clave:
| Benchmark | DeepSeek-V3.2-Base | DeepSeek-V4-Flash-Base | DeepSeek-V4-Pro-Base |
|---|---|---|---|
| AGIEval (EM) | 80.1 | 82.6 | 83.1 |
| MMLU (EM) | 87.8 | 88.7 | 90.1 |
| MMLU-Pro (EM) | 65.5 | 68.3 | 73.5 |
| HumanEval (Pass@1) | 62.8 | 69.5 | 76.8 |
| LongBench-V2 (EM) | 40.2 | 44.7 | 51.5 |
En la tabla de razonamiento y agentes, la variante Flash también muestra resultados sólidos en tareas de terminal y software, con Flash Max alcanzando 56.9 en Terminal Bench 2.0 y 79.0 en SWE Verified, aunque aún por detrás del modelo Pro en las tareas más exigentes en conocimiento y agentes.
DeepSeek-V4-Flash vs DeepSeek-V4-Pro vs DeepSeek-V3.2
| Modelo | Mejor uso | Compensación |
|---|---|---|
| DeepSeek-V4-Flash | Trabajo rápido, contexto largo, asistentes de programación y flujos de agentes de alto rendimiento | Ligeramente por detrás de Pro en conocimiento puro y las tareas de agentes más complejas |
| DeepSeek-V4-Pro | Tareas de mayor capacidad, razonamiento más profundo y flujos de trabajo de agentes más difíciles | Más pesado y menos orientado a la eficiencia que Flash |
| DeepSeek-V3.2 | Línea base anterior para comparación y planificación de migración | Rendimiento de benchmark inferior a V4-Flash en las tablas oficiales |
Casos de uso típicos de DeepSeek-V4-Flash
- Análisis de documentos largos para contratos, paquetes de investigación, bases de conocimiento de soporte y wikis internas.
- Asistentes de programación que necesitan inspeccionar repositorios grandes, seguir instrucciones en muchos archivos y mantener el contexto.
- Flujos de trabajo de agentes donde el modelo necesita razonar, llamar a herramientas e iterar sin perder el hilo.
- Sistemas de chat empresariales que se benefician de una ventana de contexto muy grande y un despliegue de baja fricción.
- Despliegues locales de prototipo para equipos que desean evaluar el comportamiento de DeepSeek-V4 antes del endurecimiento de producción.
Cómo acceder y usar DeepSeek V4 Flash API
Paso 1: Regístrate para obtener la clave de API
Inicia sesión en cometapi.com. Si aún no eres usuario, regístrate primero. Inicia sesión en tu Consola de CometAPI. Obtén la clave de API de credencial de acceso de la interfaz. Haz clic en “Add Token” en el apartado de API token del personal center, obtén la clave del token: sk-xxxxx y envíala.
Paso 2: Envía solicitudes a deepseek v4 flash API
Selecciona el endpoint “deepseek-v4-flash” para enviar la solicitud a la API y configura el cuerpo de la solicitud. El método y el cuerpo de la solicitud se obtienen de la documentación de la API en nuestro sitio web. Nuestro sitio también ofrece pruebas con Apifox para tu comodidad. Reemplaza <YOUR_API_KEY> con tu clave real de CometAPI de tu cuenta. Dónde llamarlo: formato [Anthropic Messages] y formato [Chat].
Inserta tu pregunta o solicitud en el campo content, que es a lo que responderá el modelo. Procesa la respuesta de la API para obtener la respuesta generada.
Paso 3: Recupera y verifica los resultados
Procesa la respuesta de la API para obtener la respuesta generada. Tras el procesamiento, la API responde con el estado de la tarea y los datos de salida. Habilita funciones como streaming, caché de prompts o manejo de contexto largo mediante parámetros estándar.