Китайский стартап DeepSeek, работающий в сфере искусственного интеллекта, сегодня выпустил постепенное, но эффективное обновление своей флагманской модели рассуждений R1, получившей название DeepSeek R1-0528, на платформе Hugging Face. Опубликовано под разрешительной лицензией MIT на 28 мая 2025, обновление основано на оригинальном выпуске R1 от января 2025 года, который впервые продемонстрировал, что языковые модели с открытым исходным кодом могут конкурировать с фирменными предложениями как по производительности, так и по экономической эффективности . Несмотря на то, что R1-0528 описывается внутри компании как «незначительное пробное обновление», он включает в себя существенные улучшения в сложности рассуждений, точности синтеза кода и надежности моделей .
Обновление основных моментов DeepSeek R1
Расширенное контекстное «мышление»
Используя слои смешанных экспертов (MoE) и оптимизированные механизмы внимания, R1-0528 может поддерживать более глубокие цепочки рассуждений при длительных входных данных, что делает его хорошо подходящим для рабочих процессов, требующих длительного сохранения контекста ().
Повышенная надежность и согласованность
Разработчики сообщают о более стабильном выводе при повторных запросах, снижении разброса в качестве ответов и уменьшении количества ошибок тайм-аута при обработке длинных контекстно-обогащенных запросов.
Расширенное рассуждение
Базовая архитектура остается на 671 миллиарда параметров, использующий те же механизмы внимания, что и оригинальный DeepSeek R1, но с улучшенными весами и более длительной способностью «думать».
Внутренние оценки показывают измеримые улучшения в тестах с интенсивной логикой, а также более последовательный многошаговый вывод в сложных запросах.
Превосходная генерация кода
Тесты LiveCodeBench показывают явный прогресс в кодировании с помощью ИИ: теперь R1-0528 занимает лидирующее место среди китайских моделей для задач кодирования, уступая только конфигурациям OpenAI o4-mini-high, o3-high и o4-mini-medium.
Превосходит Qwen 3 от Alibaba и Claude 3.7 от Anthropic по точности и эффективности кодирования.
Технические характеристики
| Метрика/Бенчмарк | R1-0528 | R1 (январь 2025 г.) | Ведущий запатентованный |
|---|---|---|---|
| Композитный балл LLM | медиана 69.45 | ~ 67.8 | OpenAI o3/o4-mini (~70–72) |
| Рейтинг генерации кода | №1 среди китайских моделей; №4 в мире | #2 среди китайских моделей | За OpenAI o4-mini & o3; впереди Грок 3 мини |
| Контекстное окно | 163 840 токенов (≈2 × оригинал) | 81 920 токенов | Сравнимо с OpenAI o3-high |
| Эффективность вывода | 37 б активных параметров / 671 б всего | Одна и та же | Подобно другим крупным проектам с открытым исходным кодом |
Тестовые платформы:
LiveCodeBench: По задачам кодирования R1-0528 располагается чуть ниже o4-mini и o3 от OpenAI, превосходя Grok 3 mini от xAI и Qwen 3 от Alibaba.
Композитные агрегаты LLM (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Дает среднюю производительность 69.45, что ставит его в непосредственной близости от предложений Клода и Близнецов (Analytics Vidhya).

Память и контекст:
Расширенное контекстное окно поддерживает кодовые базы, длинные документы и многопоточные диалоги с минимальной потерей связности.
Лицензирование и доступность ПО с открытым исходным кодом
Файлы веса и конфигурации R1-0528, выпущенные без общедоступной карты модели на Hugging Face, тем не менее полностью доступны под лицензией MIT лицензии, разрешая неограниченное коммерческое использование и модификации по инициативе сообщества. Выбор лицензии DeepSeek продолжает стратегию распространения «открытых весов», гарантируя, что исследовательские институты и стартапы смогут интегрировать модель без обременения.
Влияние на рынок и конкурентная среда
Запуск DeepSeek R1 в январе 2025 года разрушил преобладающие предположения о стоимости и масштабе, необходимых для передового ИИ, побудив американских конкурентов скорректировать цены и представить более легкие модели (например, o3 Mini от OpenAI). С R1-0528 DeepSeek восстанавливает свои позиции ведущего конкурента с открытым исходным кодом, конкурируя как по производительности, так и по цене с OpenAI, Google Gemini, Alibaba и Anthropic.
Взгляд в будущее
С момента своего запуска в январе DeepSeek R1 уже вызвал стратегические ответы со стороны основных игроков ИИ — в частности, повлияв на корректировку цен OpenAI и дорожную карту Google для моделей Gemini. Ожидается, что обновление R1-0528 усилит конкурентное давление, особенно среди фирм, ищущих экономически эффективные, но высокопроизводительные альтернативы проприетарным LLM. Между тем, регулирующие органы США выразили обеспокоенность по поводу национальной безопасности в связи со стремительным прогрессом DeepSeek, подчеркнув геополитические ставки распространения ИИ с открытым исходным кодом.
Первые шаги
CometAPI предоставляет унифицированный интерфейс REST, который объединяет сотни моделей ИИ — в рамках единой конечной точки, со встроенным управлением ключами API, квотами использования и панелями выставления счетов. Вместо жонглирования несколькими URL-адресами поставщиков и учетными данными.
Разработчики могут получить доступ к последним API DeepSeek R1 (название модели: deepseek-r1-0528) Через CometAPI.Для начала изучите возможности модели в Детская Площадка и проконсультируйтесь с API-руководство для получения подробных инструкций. Перед доступом убедитесь, что вы вошли в CometAPI и получили ключ API, цена в CometAPI:
- Входные токены: $0.44 / млн токенов
- Выходные токены: $1.752 / M токенов



