DeepSeek представляет DeepSeek R1-0528: что нового и производительность

CometAPI
AnnaMay 29, 2025
DeepSeek представляет DeepSeek R1-0528: что нового и производительность

Китайский стартап DeepSeek, работающий в сфере искусственного интеллекта, сегодня выпустил постепенное, но эффективное обновление своей флагманской модели рассуждений R1, получившей название DeepSeek R1-0528, на платформе Hugging Face. Опубликовано под разрешительной лицензией MIT на 28 мая 2025, обновление основано на оригинальном выпуске R1 от января 2025 года, который впервые продемонстрировал, что языковые модели с открытым исходным кодом могут конкурировать с фирменными предложениями как по производительности, так и по экономической эффективности . Несмотря на то, что R1-0528 описывается внутри компании как «незначительное пробное обновление», он включает в себя существенные улучшения в сложности рассуждений, точности синтеза кода и надежности моделей .

Обновление основных моментов DeepSeek R1

Расширенное контекстное «мышление»

Используя слои смешанных экспертов (MoE) и оптимизированные механизмы внимания, R1-0528 может поддерживать более глубокие цепочки рассуждений при длительных входных данных, что делает его хорошо подходящим для рабочих процессов, требующих длительного сохранения контекста ().

Повышенная надежность и согласованность

Разработчики сообщают о более стабильном выводе при повторных запросах, снижении разброса в качестве ответов и уменьшении количества ошибок тайм-аута при обработке длинных контекстно-обогащенных запросов.

Расширенное рассуждение

Базовая архитектура остается на 671 миллиарда параметров, использующий те же механизмы внимания, что и оригинальный DeepSeek R1, но с улучшенными весами и более длительной способностью «думать».

Внутренние оценки показывают измеримые улучшения в тестах с интенсивной логикой, а также более последовательный многошаговый вывод в сложных запросах.

Превосходная генерация кода

Тесты LiveCodeBench показывают явный прогресс в кодировании с помощью ИИ: теперь R1-0528 занимает лидирующее место среди китайских моделей для задач кодирования, уступая только конфигурациям OpenAI o4-mini-high, o3-high и o4-mini-medium.

Превосходит Qwen 3 от Alibaba и Claude 3.7 от Anthropic по точности и эффективности кодирования.


Технические характеристики

Метрика/БенчмаркR1-0528R1 (январь 2025 г.)Ведущий запатентованный
Композитный балл LLMмедиана 69.45~ 67.8OpenAI o3/o4-mini (~70–72)
Рейтинг генерации кода№1 среди китайских моделей; №4 в мире#2 среди китайских моделейЗа OpenAI o4-mini & o3; впереди Грок 3 мини
Контекстное окно163 840 токенов (≈2 × оригинал)81 920 токеновСравнимо с OpenAI o3-high
Эффективность вывода37 б активных параметров / 671 б всегоОдна и та жеПодобно другим крупным проектам с открытым исходным кодом

Тестовые платформы:

LiveCodeBench: По задачам кодирования R1-0528 располагается чуть ниже o4-mini и o3 от OpenAI, превосходя Grok 3 mini от xAI и Qwen 3 от Alibaba.

Композитные агрегаты LLM (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Дает среднюю производительность 69.45, что ставит его в непосредственной близости от предложений Клода и Близнецов (Analytics Vidhya).

DeepSeek представляет DeepSeek R1-0528: что нового и производительность

Память и контекст:

Расширенное контекстное окно поддерживает кодовые базы, длинные документы и многопоточные диалоги с минимальной потерей связности.

Лицензирование и доступность ПО с открытым исходным кодом

Файлы веса и конфигурации R1-0528, выпущенные без общедоступной карты модели на Hugging Face, тем не менее полностью доступны под лицензией MIT лицензии, разрешая неограниченное коммерческое использование и модификации по инициативе сообщества. Выбор лицензии DeepSeek продолжает стратегию распространения «открытых весов», гарантируя, что исследовательские институты и стартапы смогут интегрировать модель без обременения.


Влияние на рынок и конкурентная среда

Запуск DeepSeek R1 в январе 2025 года разрушил преобладающие предположения о стоимости и масштабе, необходимых для передового ИИ, побудив американских конкурентов скорректировать цены и представить более легкие модели (например, o3 Mini от OpenAI). С R1-0528 DeepSeek восстанавливает свои позиции ведущего конкурента с открытым исходным кодом, конкурируя как по производительности, так и по цене с OpenAI, Google Gemini, Alibaba и Anthropic.


Взгляд в будущее

С момента своего запуска в январе DeepSeek R1 уже вызвал стратегические ответы со стороны основных игроков ИИ — в частности, повлияв на корректировку цен OpenAI и дорожную карту Google для моделей Gemini. Ожидается, что обновление R1-0528 усилит конкурентное давление, особенно среди фирм, ищущих экономически эффективные, но высокопроизводительные альтернативы проприетарным LLM. Между тем, регулирующие органы США выразили обеспокоенность по поводу национальной безопасности в связи со стремительным прогрессом DeepSeek, подчеркнув геополитические ставки распространения ИИ с открытым исходным кодом.

Первые шаги

CometAPI предоставляет унифицированный интерфейс REST, который объединяет сотни моделей ИИ — в рамках единой конечной точки, со встроенным управлением ключами API, квотами использования и панелями выставления счетов. Вместо жонглирования несколькими URL-адресами поставщиков и учетными данными.

Разработчики могут получить доступ к последним API DeepSeek R1 (название модели: deepseek-r1-0528) Через CometAPI.Для начала изучите возможности модели в Детская Площадка и проконсультируйтесь с API-руководство для получения подробных инструкций. Перед доступом убедитесь, что вы вошли в CometAPI и получили ключ API, цена в CometAPI:

  • Входные токены: $0.44 / млн токенов
  • Выходные токены: $1.752 / M токенов
SHARE THIS BLOG

500+ моделей в одном API

Скидка до 20%