Технические характеристики
| Параметр | DeepSeek-V4-Pro |
|---|---|
| Поставщик | DeepSeek |
| Имя модели API | deepseek-v4-pro |
| Базовые URL-адреса | https://api.deepseek.com and https://api.deepseek.com/anthropic |
| Тип ввода | Text |
| Тип вывода | Text, вызовы инструментов, вывод рассуждений |
| Длина контекста | 1,000,000 токенов |
| Максимальный размер вывода | 384,000 токенов |
| Режимы рассуждения | Без размышлений, с размышлениями (по умолчанию) |
| Настройки по умолчанию для агентов/кодирования | reasoning_effort можно установить на high; сложные агентные запросы могут использовать max |
| Поддерживаемые возможности | Вывод JSON, вызовы инструментов, Chat Prefix Completion (beta), FIM Completion (beta в режиме без размышлений) |
| Локальный релиз/релиз с открытыми весами | 1.6T всего параметров, 49B активированных параметров, смешанная точность FP4 + FP8 |
| Лицензия (карточка модели) | MIT |
| Справочная карточка модели | Предпросмотр DeepSeek-V4-Pro на Hugging Face |
Что такое DeepSeek-V4-Pro?
DeepSeek-V4-Pro — более мощный участник предварительной серии DeepSeek V4. Официальная карточка модели описывает его как MoE-модель с 1.6T параметров и 49B активированных параметров, с оконным контекстом на один миллион токенов, нацеленную на длительные задачи знаний, генерацию кода и агентные задачи. API предоставляет доступ через стандартный интерфейс чат-дополнений DeepSeek и поддерживает стили SDK от OpenAI и Anthropic.
Основные возможности
- Контекст на миллион токенов: DeepSeek документирует длину контекста в 1M токенов, что делает модель подходящей для очень больших наборов документов, репозиториев и многошаговых сессий агентов.
- Два режима рассуждений: API поддерживает режим без размышлений и режим с размышлениями; по умолчанию включен режим с размышлениями, а в документации отмечено, что сложные агентные запросы, такие как Claude Code или OpenCode, могут автоматически использовать максимальные усилия (max).
- Поддержка вызова инструментов: Режим с размышлениями в DeepSeek поддерживает вызовы инструментов, что важно для агентов, которым нужны поиск, файловые операции или внешние функции.
- Эффективность на длинном контексте: Карточка модели утверждает, что V4 использует гибридный дизайн внимания с Compressed Sparse Attention и Heavily Compressed Attention для снижения вычислительных затрат и стоимости KV-кэша на длинном контексте по сравнению с V3.2. citeturn980363view2
- Фокус на коде и рассуждениях: DeepSeek заявляет, что режим рассуждений V4-Pro-Max улучшает результаты на кодовых бенчмарках и сокращает значительную часть разрыва с лидирующими закрытыми моделями в задачах рассуждений и агентности. citeturn980363view2
- Гибкость SDK: Доступ возможен через стандартные совместимые с OpenAI чат-комплишены или через совместимую с Anthropic конечную точку DeepSeek для инструментально-ориентированных рабочих процессов.
Результаты бенчмарков
Официальная карточка модели DeepSeek приводит следующие результаты оценок для базовой семейства моделей и для набора сравнения V4-Pro-Max. В таблице базовых моделей V4-Pro набирает больше, чем V3.2-Base, по нескольким бенчмаркам знаний и длинного контекста, включая MMLU-Pro (73.5 против 65.5), FACTS Parametric (62.6 против 27.1) и LongBench-V2 (51.5 против 40.2).
| Бенчмарк | V3.2-Base | V4-Flash-Base | V4-Pro-Base |
|---|---|---|---|
| MMLU-Pro (EM) | 65.5 | 68.3 | 73.5 |
| FACTS Parametric (EM) | 27.1 | 33.9 | 62.6 |
| HumanEval (Pass@1) | 62.8 | 69.5 | 76.8 |
| LongBench-V2 (EM) | 40.2 | 44.7 | 51.5 |
Та же карточка модели также показывает, что V4-Pro-Max остается конкурентоспособной с топовыми передовыми моделями по выбранным задачам. Например, она демонстрирует 87.5 на MMLU-Pro, 57.9 на SimpleQA-Verified, 90.1 на GPQA Diamond и 67.9 на Terminal Bench 2.0 в опубликованной сравнительной таблице.
DeepSeek-V4-Pro vs DeepSeek-V4-Flash vs DeepSeek-V3.2
| Модель | Наилучшее применение | Контекст | Примечания |
|---|---|---|---|
| DeepSeek-V4-Pro | Глубокие рассуждения, программирование, агенты, большие документы | 1M | Крупнейшая модель серии V4, 49B активированных параметров, наибольшая общая мощность в серии. citeturn980363view2turn980363view0 |
| DeepSeek-V4-Flash | Быстрый, легковесный для общего использования | 1M | Более компактная модель 284B/13B, по‑прежнему поддерживает режим размышлений и вызовы инструментов. citeturn980363view2turn980363view0 |
| DeepSeek-V3.2 | Базовый уровень предыдущего поколения для длинного контекста | 128K в ранней документации API; V4 использует другую архитектуру контекста на 1M | Полезна как референсная точка для прироста эффективности; карточка модели V4-Pro сообщает о значительном снижении FLOPs и KV‑кэша на длинном контексте по сравнению с V3.2. citeturn321011view1turn980363view2 |
Лучшие варианты использования
- Ассистенты для работы с кодом в масштабах репозиториев и инструменты рефакторинга
- Анализ и синтез длинных документов
- Агенты с использованием инструментов, требующие многошаговых рассуждений
- Потоки технической поддержки, которым полезны длинная память и структурированный вывод
- Задачи знаний на китайском и многоязычные задачи, где карточка модели показывает сильные результаты бенчмарков
Как получить доступ и использовать Deepseek v4 pro API
Шаг 1: Зарегистрируйтесь для получения ключа API
Войдите на cometapi.com. Если вы еще не являетесь нашим пользователем, сначала зарегистрируйтесь. Войдите в свою консоль CometAPI. Получите ключ API для доступа к интерфейсу. Нажмите “Add Token” в разделе токенов API в личном кабинете, получите ключ токена: sk-xxxxx и отправьте.
Шаг 2: Отправьте запросы в Deepseek v4 pro API
Выберите конечную точку “deepseek-v4-pro”, чтобы отправить запрос к API, и задайте тело запроса. Метод запроса и тело запроса берутся из нашей документации API на сайте. Наш сайт также предоставляет тест в Apifox для вашего удобства. Замените <YOUR_API_KEY> на ваш фактический ключ CometAPI из вашего аккаунта. Где вызывать: формат Anthropic Messages и формат Chat.
Вставьте свой вопрос или запрос в поле content — именно на него модель ответит. Обработайте ответ API, чтобы получить сгенерированный результат.
Шаг 3: Получите и проверьте результаты
Обработайте ответ API, чтобы получить сгенерированный результат. После обработки API возвращает статус задачи и выходные данные. Включайте такие функции, как потоковая передача, кэширование промптов или работа с длинным контекстом, через стандартные параметры.