API Deepseek v3.2

CometAPI
AnnaDec 3, 2025
API Deepseek v3.2

DeepSeek V3.2 в серии DeepSeek V3: крупное семейство языковых моделей, ориентированное на «вывод в первую очередь», оптимизированное для использования агентными инструментами, рассуждений в расширенном контексте и экономичного развертывания.

Что такое DeepSeek v3.2?

DeepSeek v3.2 это последний релиз в DeepSeek V3 семейство: большая, ориентированная на рассуждение, открытая языковая модель, разработанная для Понимание контекста в широком смысле, надежное использование агентов/инструментов, развитое мышление, кодирование и математика. Релиз включает в себя несколько версий (производственную версию V3.2 и высокопроизводительную версию V3.2-Speciale). Проект делает акцент на экономичном долгосрочном контекстном выводе с помощью нового механизма разреженного внимания, называемого DeepSeek Sparse Attention (DSA) и агенты/«мыслящие» рабочие процессы («Мышление посредством использования инструментов»).

Основные характеристики (высокий уровень)

  • DeepSeek Sparse Attention (DSA): механизм разреженного внимания, предназначенный для значительного сокращения вычислений в долгосрочных контекстных сценариях, сохраняя при этом долгосрочное мышление. (Основное исследовательское утверждение; используется в V3.2-Exp.)
  • Агентное мышление + интеграция использования инструментов: В версии 3.2 особое внимание уделяется внедрению «мышления» в использование инструментов: модель может работать в режимах рассуждения-мышления и в режимах без мышления (нормальных) при вызове инструментов, улучшая принятие решений в многоэтапных задачах и организацию инструментов.
  • Конвейер синтеза данных крупномасштабного агента: DeepSeek сообщает о корпусе обучения и конвейере синтеза агентов, охватывающих тысячи сред и десятки тысяч сложных инструкций для повышения надежности интерактивных задач.
  • DeepSeek Sparse Attention (DSA): DSA — это мелкозернистый метод разреженного внимания, представленный в версии V3.2 (впервые в V3.2-Exp), который снижает сложность внимания (с наивного O(L²) до O(L·k) с k ≪ L), выбирая меньший набор токенов «ключ-значение» на каждый токен запроса. Результатом является существенное снижение потребления памяти и вычислительных ресурсов для очень длинных контекстов (128 КБ), что существенно снижает затраты на вывод в длинных контекстах.
  • Связующее звено смешанной экспертной группы (MoE) и многоголовое латентное внимание (MLA): Семейство V3 использует MoE для эффективного увеличения емкости (большое количество номинальных параметров с ограниченной активацией на токен) вместе с методами MLA для поддержания качества и управления вычислениями.

Технические характеристики (краткая таблица)

  • Диапазон номинальных параметров: ~671B - 685B (зависит от варианта).
  • Контекстное окно (документированная ссылка): Знаки 128,000 (128 КБ) в конфигурациях vLLM/reference.
  • Внимание: DeepSeek Sparse Attention (DSA) + MLA; снижение сложности внимания для длительных контекстов.
  • Числовая и обучающая точность: Доступны для распространения форматы BF16 / F32 и сжатые квантованные форматы (F8_E4M3 и т. д.).
  • Архитектурное семейство: Основа MoE (смесь экспертов) с экономикой активации на основе токенов.
  • Ввод, вывод: стандартный токенизированный ввод текста (поддерживаются форматы чата/сообщений); поддерживает вызовы инструментов (примитивы API для использования инструментов), а также интерактивные вызовы в стиле чата и программное завершение через API.
  • Предлагаемые варианты: v3.2, v3.2-Exp (экспериментальный, дебют DSA), v3.2-Speciale (сначала рассуждения, только API в краткосрочной перспективе).

Контрольная производительность

Высокопроизводительные вычисления V3.2-Speciale достигает паритета или превосходит современные высококлассные модели по нескольким тестам на рассуждение/математику/кодирование, а также получает высшие оценки по отдельным элитным наборам математических задач. В препринте подчёркивается паритет с такими моделями, как GPT-5 / Kimi K2, по отдельным тестам на рассуждение, а также конкретные улучшения по сравнению с предыдущими базовыми показателями DeepSeek R1/V3:

  • АЙМЭ: улучшилось с 70.0 до 87.5 (Δ +17.5).
  • ГПКА: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Помощник: 57.0 → 71.6 (Δ +14.6).

Сравнение с другими моделями (высокий уровень)

  • По сравнению с GPT-5 / Gemini 3 Pro (публичные заявления): Авторы DeepSeek и несколько печатных изданий заявляют о паритете или превосходстве варианта Speciale по выбранным задачам рассуждения и кодирования, при этом подчеркивая экономическую эффективность и открытое лицензирование как отличительные черты.
  • По сравнению с открытыми моделями (Olmo, Nemotron, Moonshot и т. д.): DeepSeek выделяет агентское обучение и DSA как ключевые факторы эффективности в длительном контексте.

Типичные варианты использования

  • Агентные системы/оркестровка: многофункциональные агенты (API, веб-скраперы, коннекторы для выполнения кода), которые используют преимущества «мышления» на уровне модели + явных примитивов вызова инструментов.
  • Обоснование/анализ длинного документа: Юридические документы, большие исследовательские корпуса, стенограммы совещаний — варианты с длинным контекстом (128 тыс. токенов) позволяют сохранять очень большие контексты в одном вызове.
  • Помощь в решении сложных математических задач и кодировании: V3.2-Speciale рекомендуется для решения сложных математических задач и обширных задач отладки кода согласно тестам поставщика.
  • Чувствительные к затратам производственные развертывания: Изменения в ценообразовании DSA + направлены на снижение затрат на вывод для рабочих нагрузок с высоким уровнем контекста.

Как начать использоватьDeepSeek v3.2 API

DeepSeek v3.2 Цены на API в CometAPI, скидка 20% от официальной цены:

Входные токены$0.22
Выходные токены$0.35

Необходимые шаги

  • Войти в cometapi.com. Если вы еще не являетесь нашим пользователем, пожалуйста, сначала зарегистрируйтесь.
  • Получите ключ API-интерфейса для доступа к учетным данным. Нажмите «Добавить токен» в API-токене в персональном центре, получите ключ токена: sk-xxxxx и отправьте.
  • Получите URL этого сайта: https://api.cometapi.com/

Используйте метод

  1. Выберите "deepseek-v3.2” конечная точка для отправки запроса API и установки тела запроса. Метод запроса и тело запроса получены из нашего веб-сайта API doc. Наш веб-сайт также предоставляет тест Apifox для вашего удобства.
  2. Заменять с вашим реальным ключом CometAPI из вашей учетной записи.
  3. Выберите Чат Формат: введите свой вопрос или запрос в поле контента — на него ответит модель.
  4. .Обработайте ответ API, чтобы получить сгенерированный ответ.
Читать далее

500+ моделей в одном API

Скидка до 20%