Home/Models/DeepSeek/DeepSeek-V3.2

DeepSeek-V3.2

DeepSeek
deepseek-v3.2
Ввод:$0.22/M
Вывод:$0.35/M
Контекст:128K
Максимальный вывод:4K
DeepSeek v3.2 — последний продакшен-релиз в семействе DeepSeek V3: большое семейство языковых моделей с открытыми весами, в первую очередь ориентированное на рассуждение, разработанное для понимания длинного контекста, надёжного использования агентов и инструментов, продвинутого рассуждения, программирования и математики.
Обзор
Функции
Цены
API
Версии

Что такое DeepSeek v3.2?

DeepSeek v3.2 — последний промышленный релиз в семействе DeepSeek V3: семейство языковых моделей с открытыми весами, ориентированных прежде всего на рассуждение и разработанных для понимания длинных контекстов, надежного использования агентов/инструментов, продвинутого рассуждения, программирования и математики. Релиз включает несколько вариантов (продукционный V3.2 и высокопроизводительный V3.2-Speciale). Проект делает акцент на экономичном по стоимости выводе на длинных контекстах благодаря новому механизму разреженного внимания DeepSeek Sparse Attention (DSA) и рабочим процессам агентов/«мышления» («Thinking in Tool-Use»).

Основные возможности (в общих чертах)

  • DeepSeek Sparse Attention (DSA): механизм разреженного внимания, призванный резко сократить вычисления в сценариях с длинными контекстами при сохранении качества рассуждений на длинных контекстах. (Ключевое исследовательское заявление; используется в V3.2-Exp.)
  • Агентное мышление + интеграция с инструментами: V3.2 акцентирует встраивание «мышления» в использование инструментов: модель может работать в режимах рассуждения/мышления и в «нормальном» (без мышления) режиме при вызове инструментов, улучшая принятие решений в многошаговых задачах и оркестрацию инструментов.
  • Крупномасштабный конвейер синтеза данных для агентов: DeepSeek сообщает о корпусе данных и конвейере синтеза агентов, охватывающих тысячи сред и десятки тысяч сложных инструкций для повышения устойчивости в интерактивных задачах.
  • DeepSeek Sparse Attention (DSA): DSA — это детализированный метод разреженного внимания, представленный в линейке V3.2 (впервые в V3.2-Exp), снижающий сложность внимания (с наивной O(L²) до вида O(L·k) с k ≪ L), выбирая меньший набор ключевых/значимых токенов на каждый токен-запрос. Результат — существенно меньшие требования к памяти/вычислениям для очень длинных контекстов (128K), что делает вывод на длинных контекстах существенно более дешевым.
  • Архитектура Mixture-of-Experts (MoE) и Multi-head Latent Attention (MLA): семейство V3 использует MoE для эффективного увеличения емкости (большое номинальное число параметров при ограниченной активации на токен) вместе с методами MLA для сохранения качества и контроля вычислительных затрат.

Технические характеристики (кратко)

  • Номинальный диапазон параметров: ~671B – 685B (зависит от варианта).
  • Окно контекста (по документации): 128 000 токенов (128K) в конфигурациях vLLM/reference.
  • Внимание: DeepSeek Sparse Attention (DSA) + MLA; сниженная сложность внимания для длинных контекстов.
  • Числовая и тренировочная точность: BF16 / F32 и сжатые квантизованные форматы ( F8_E4M3 и др.) доступны для распространения.
  • Семейство архитектур: основа на MoE (mixture-of-experts) с экономией активации на токен.
  • Ввод / вывод: стандартный токенизированный текстовый ввод (поддерживаются форматы чата/сообщений); поддерживает вызов инструментов (примитивы API для tool-use) и как интерактивные вызовы в стиле чата, так и программные дополнения через API.
  • Доступные варианты: v3.2, v3.2-Exp (экспериментальный, дебют DSA), v3.2-Speciale (ориентирован на рассуждения, в краткосрочной перспективе только через API).

Результаты бенчмарков

Высокопроизводительный V3.2-Speciale достигает паритета или превосходит современные топовые модели на ряде бенчмарков по рассуждению/математике/кодированию и демонстрирует высшие результаты на избранных элитных наборах задач по математике. В препринте отмечается паритет с моделями вроде GPT-5 / Kimi K2 на отдельных бенчмарках по рассуждению и конкретные улучшения относительно более ранних базовых DeepSeek R1/V3:

  • AIME: рост с 70.0 до 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Aider: 57.0 → 71.6 (Δ +14.6).

Сравнение с другими моделями (в общих чертах)

  • По сравнению с GPT-5 / Gemini 3 Pro (публичные заявления): авторы DeepSeek и ряд СМИ заявляют о паритете или превосходстве на отдельных задачах рассуждения и программирования для варианта Speciale, при этом подчеркиваются эффективность по стоимости и открытое лицензирование как дифференциаторы.
  • По сравнению с открытыми моделями (Olmo, Nemotron, Moonshot и др.): DeepSeek выделяет агентную подготовку и DSA как ключевые отличия в эффективности на длинных контекстах.

Типичные сценарии использования

  • Агентные системы / оркестрация: мультиинструментальные агенты (API, веб-скрейперы, коннекторы для выполнения кода), выигрывающие от модельного «мышления» плюс явные примитивы вызова инструментов.
  • Рассуждение/анализ по длинным документам: юридические документы, большие исследовательские корпуса, расшифровки встреч — варианты с длинным контекстом (128k токенов) позволяют держать очень большие контексты в одном вызове.
  • Сложная математика и помощь в программировании: V3.2-Speciale позиционируется для продвинутого математического рассуждения и масштабной отладки кода согласно бенчмаркам поставщика.
  • Развертывания, чувствительные к стоимости: DSA + изменения в ценообразовании нацелены на снижение стоимости вывода для задач с большим контекстом.

Как начать использовать API DeepSeek v3.2

Цены API DeepSeek v3.2 в CometAPI, на 20% ниже официальной цены:

Входные токены$0.22
Выходные токены$0.35

Необходимые шаги

  • Войдите на cometapi.com. Если вы еще не наш пользователь, пожалуйста, сначала зарегистрируйтесь.
  • Получите ключ доступа API интерфейса. Нажмите «Add Token» в разделе API token в личном кабинете, получите ключ токена: sk-xxxxx и отправьте.
  • Получите URL этого сайта: https://api.cometapi.com/

Способ использования

  1. Выберите endpoint “deepseek-v3.2” для отправки запроса к API и задайте тело запроса. Метод и тело запроса берутся из документации API на нашем сайте. На нашем сайте также доступен Apifox для тестирования.
  2. Замените <YOUR_API_KEY> на ваш фактический ключ CometAPI из вашего аккаунта.
  3. Выберите формат Чат: вставьте ваш вопрос или запрос в поле content — именно на это модель ответит.
  4. Обработайте ответ API, чтобы получить сгенерированный ответ.

Функции для DeepSeek-V3.2

Изучите ключевые функции DeepSeek-V3.2, разработанные для повышения производительности и удобства использования. Узнайте, как эти возможности могут принести пользу вашим проектам и улучшить пользовательский опыт.
text-to-text
text-to-music
speech-to-text
text-to-speech
text-to-image
image-to-image
image-editing
image-to-text
text-to-video
image-to-video
chat
video-to-text
pdf-to-text

Цены для DeepSeek-V3.2

Изучите конкурентоспособные цены на DeepSeek-V3.2, разработанные для различных бюджетов и потребностей использования. Наши гибкие планы гарантируют, что вы платите только за то, что используете, что упрощает масштабирование по мере роста ваших требований. Узнайте, как DeepSeek-V3.2 может улучшить ваши проекты, сохраняя при этом управляемые расходы.
Цена Comet (USD / M Tokens)Официальная цена (USD / M Tokens)
Ввод:$0.22/M
Вывод:$0.35/M
Ввод:$0.27/M
Вывод:$0.43/M

Пример кода и API для DeepSeek-V3.2

Получите доступ к исчерпывающим примерам кода и ресурсам API для DeepSeek-V3.2, чтобы упростить процесс интеграции. Наша подробная документация предоставляет пошаговые инструкции, помогая вам использовать весь потенциал DeepSeek-V3.2 в ваших проектах.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="deepseek-v3.2-exp",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

Версии DeepSeek-V3.2

Причина наличия нескольких снимков DeepSeek-V3.2 может включать такие потенциальные факторы, как: изменения в выходных данных после обновлений, требующие сохранения старых снимков для обеспечения согласованности; предоставление разработчикам переходного периода для адаптации и миграции; а также наличие разных снимков, соответствующих глобальным или региональным конечным точкам для оптимизации пользовательского опыта. Для получения подробной информации о различиях между версиями обратитесь к официальной документации.
deepseek-v3.2
DeepSeek-V3.2-Exp-nothinking
DeepSeek-V3.2-Exp-thinking

Больше моделей