DeepSeek V3.2 в серии DeepSeek V3: крупное семейство языковых моделей, ориентированное на «вывод в первую очередь», оптимизированное для использования агентными инструментами, рассуждений в расширенном контексте и экономичного развертывания.
Что такое DeepSeek v3.2?
DeepSeek v3.2 это последний релиз в DeepSeek V3 семейство: большая, ориентированная на рассуждение, открытая языковая модель, разработанная для Понимание контекста в широком смысле, надежное использование агентов/инструментов, развитое мышление, кодирование и математика. Релиз включает в себя несколько версий (производственную версию V3.2 и высокопроизводительную версию V3.2-Speciale). Проект делает акцент на экономичном долгосрочном контекстном выводе с помощью нового механизма разреженного внимания, называемого DeepSeek Sparse Attention (DSA) и агенты/«мыслящие» рабочие процессы («Мышление посредством использования инструментов»).
Основные характеристики (высокий уровень)
- DeepSeek Sparse Attention (DSA): механизм разреженного внимания, предназначенный для значительного сокращения вычислений в долгосрочных контекстных сценариях, сохраняя при этом долгосрочное мышление. (Основное исследовательское утверждение; используется в
V3.2-Exp.) - Агентное мышление + интеграция использования инструментов: В версии 3.2 особое внимание уделяется внедрению «мышления» в использование инструментов: модель может работать в режимах рассуждения-мышления и в режимах без мышления (нормальных) при вызове инструментов, улучшая принятие решений в многоэтапных задачах и организацию инструментов.
- Конвейер синтеза данных крупномасштабного агента: DeepSeek сообщает о корпусе обучения и конвейере синтеза агентов, охватывающих тысячи сред и десятки тысяч сложных инструкций для повышения надежности интерактивных задач.
- DeepSeek Sparse Attention (DSA): DSA — это мелкозернистый метод разреженного внимания, представленный в версии V3.2 (впервые в V3.2-Exp), который снижает сложность внимания (с наивного O(L²) до O(L·k) с k ≪ L), выбирая меньший набор токенов «ключ-значение» на каждый токен запроса. Результатом является существенное снижение потребления памяти и вычислительных ресурсов для очень длинных контекстов (128 КБ), что существенно снижает затраты на вывод в длинных контекстах.
- Связующее звено смешанной экспертной группы (MoE) и многоголовое латентное внимание (MLA): Семейство V3 использует MoE для эффективного увеличения емкости (большое количество номинальных параметров с ограниченной активацией на токен) вместе с методами MLA для поддержания качества и управления вычислениями.
Технические характеристики (краткая таблица)
- Диапазон номинальных параметров: ~671B - 685B (зависит от варианта).
- Контекстное окно (документированная ссылка): Знаки 128,000 (128 КБ) в конфигурациях vLLM/reference.
- Внимание: DeepSeek Sparse Attention (DSA) + MLA; снижение сложности внимания для длительных контекстов.
- Числовая и обучающая точность: Доступны для распространения форматы BF16 / F32 и сжатые квантованные форматы (F8_E4M3 и т. д.).
- Архитектурное семейство: Основа MoE (смесь экспертов) с экономикой активации на основе токенов.
- Ввод, вывод: стандартный токенизированный ввод текста (поддерживаются форматы чата/сообщений); поддерживает вызовы инструментов (примитивы API для использования инструментов), а также интерактивные вызовы в стиле чата и программное завершение через API.
- Предлагаемые варианты:
v3.2,v3.2-Exp(экспериментальный, дебют DSA),v3.2-Speciale(сначала рассуждения, только API в краткосрочной перспективе).
Контрольная производительность
Высокопроизводительные вычисления V3.2-Speciale достигает паритета или превосходит современные высококлассные модели по нескольким тестам на рассуждение/математику/кодирование, а также получает высшие оценки по отдельным элитным наборам математических задач. В препринте подчёркивается паритет с такими моделями, как GPT-5 / Kimi K2, по отдельным тестам на рассуждение, а также конкретные улучшения по сравнению с предыдущими базовыми показателями DeepSeek R1/V3:
- АЙМЭ: улучшилось с 70.0 до 87.5 (Δ +17.5).
- ГПКА: 71.5 → 81.0 (Δ +9.5).
- LCB_v6: 63.5 → 73.3 (Δ +9.8).
- Помощник: 57.0 → 71.6 (Δ +14.6).
Сравнение с другими моделями (высокий уровень)
- По сравнению с GPT-5 / Gemini 3 Pro (публичные заявления): Авторы DeepSeek и несколько печатных изданий заявляют о паритете или превосходстве варианта Speciale по выбранным задачам рассуждения и кодирования, при этом подчеркивая экономическую эффективность и открытое лицензирование как отличительные черты.
- По сравнению с открытыми моделями (Olmo, Nemotron, Moonshot и т. д.): DeepSeek выделяет агентское обучение и DSA как ключевые факторы эффективности в длительном контексте.
Типичные варианты использования
- Агентные системы/оркестровка: многофункциональные агенты (API, веб-скраперы, коннекторы для выполнения кода), которые используют преимущества «мышления» на уровне модели + явных примитивов вызова инструментов.
- Обоснование/анализ длинного документа: Юридические документы, большие исследовательские корпуса, стенограммы совещаний — варианты с длинным контекстом (128 тыс. токенов) позволяют сохранять очень большие контексты в одном вызове.
- Помощь в решении сложных математических задач и кодировании:
V3.2-Specialeрекомендуется для решения сложных математических задач и обширных задач отладки кода согласно тестам поставщика. - Чувствительные к затратам производственные развертывания: Изменения в ценообразовании DSA + направлены на снижение затрат на вывод для рабочих нагрузок с высоким уровнем контекста.
Как начать использоватьDeepSeek v3.2 API
DeepSeek v3.2 Цены на API в CometAPI, скидка 20% от официальной цены:
| Входные токены | $0.22 |
| Выходные токены | $0.35 |
Необходимые шаги
- Войти в cometapi.com. Если вы еще не являетесь нашим пользователем, пожалуйста, сначала зарегистрируйтесь.
- Получите ключ API-интерфейса для доступа к учетным данным. Нажмите «Добавить токен» в API-токене в персональном центре, получите ключ токена: sk-xxxxx и отправьте.
- Получите URL этого сайта: https://api.cometapi.com/
Используйте метод
- Выберите "
deepseek-v3.2” конечная точка для отправки запроса API и установки тела запроса. Метод запроса и тело запроса получены из нашего веб-сайта API doc. Наш веб-сайт также предоставляет тест Apifox для вашего удобства. - Заменять с вашим реальным ключом CometAPI из вашей учетной записи.
- Выберите Чат Формат: введите свой вопрос или запрос в поле контента — на него ответит модель.
- .Обработайте ответ API, чтобы получить сгенерированный ответ.
