Chiński startup zajmujący się sztuczną inteligencją DeepSeek opublikował dziś przyrostową, ale znaczącą aktualizację swojego flagowego modelu rozumowania R1, oznaczonego Głębokie wyszukiwanie R1-0528, na platformie Hugging Face. Opublikowano na licencji permisywnej MIT na May 28, 2025, aktualizacja bazuje na oryginalnym wydaniu R1 ze stycznia 2025 r., które jako pierwsze wykazało, że modele językowe typu open source mogą konkurować z zastrzeżonymi ofertami zarówno pod względem wydajności, jak i opłacalności. Pomimo wewnętrznego opisu jako „drobnej aktualizacji próbnej”, R1-0528 zawiera istotne ulepszenia w zakresie wyrafinowania rozumowania, dokładności syntezy kodu i niezawodności modelu.
Najważniejsze informacje o aktualizacji DeepSeek R1
Rozszerzone kontekstowe „myślenie”
Wykorzystując warstwy mieszanki ekspertów (MoE) i zoptymalizowane mechanizmy uwagi, R1-0528 może podtrzymywać głębsze łańcuchy rozumowania przy dłuższym wprowadzaniu danych, co czyni go doskonałym rozwiązaniem dla przepływów pracy wymagających dłuższego przechowywania kontekstu ().
Poprawiona niezawodność i spójność
Programiści informują o bardziej stabilnym wyniku w przypadku powtarzających się monitów, o mniejszych różnicach w jakości odpowiedzi i mniejszej liczbie błędów przekroczenia limitu czasu podczas obsługi długich zapytań o bogatym kontekście.
Ulepszone rozumowanie
Podstawowa architektura pozostaje taka sama 671 miliarda parametrów, wykorzystując te same mechanizmy uwagi, co oryginalny deepseek R1, ale z udoskonalonymi wagami i dłuższą możliwością „myślenia”.
Wewnętrzne oceny wykazują wymierne korzyści w testach porównawczych wymagających dużej ilości logiki, a także bardziej spójne wnioskowanie wieloetapowe w przypadku złożonych zapytań.
Lepsze generowanie kodu
Testy LiveCodeBench wskazują na wyraźne postępy w kodowaniu wspomaganym przez sztuczną inteligencję: R1-0528 jest obecnie najlepszym modelem chińskiego pochodzenia do zadań kodowania, ustępując jedynie konfiguracjom OpenAI o4-mini-high, o3-high i o4-mini-medium.
Pod względem dokładności i wydajności kodowania przewyższa Qwen 3 firmy Alibaba i Claude 3.7 firmy Anthropic.
Wydajność techniczna
| Metryka/punkt odniesienia | R1-0528 | R1 (styczeń 2025) | Wiodący właściciel |
|---|---|---|---|
| Wynik łączony LLM | Mediana 69.45 | ~ 67.8 | OpenAI o3/o4-mini (~70–72) |
| Ranking generowania kodu | #1 wśród chińskich modelek; ogólnie #4 na świecie | #2 wśród chińskich modelek | Za OpenAI o4-mini i o3; przed Grokiem 3 mini |
| Okno kontekstowe | 163 840 tokenów (≈2 × oryginał) | 81 920 tokenów | Porównywalny do OpenAI o3-high |
| Wydajność wnioskowania | 37 b aktywnych parametrów / 671 b łącznie | Podobnie | Podobnie jak w przypadku innych dużych projektów typu open source |
Platformy testowe:
LiveCodeBench: Pozycjonuje R1-0528 tuż za o4-mini i o3 firmy OpenAI w zakresie zadań kodowania, wyprzedzając Grok 3 mini firmy xAI i Qwen 3 firmy Alibaba.
Agregaty kompozytowe LLM (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Daje średnią wydajność na poziomie 69.45co plasuje ją w niedalekiej odległości od ofert Claude i Gemini (Analytics Vidhya).

Pamięć i kontekst:
Rozszerzone okno kontekstowe obsługuje bazy kodów, dokumenty o długiej formie i dialogi wieloetapowe przy minimalnej utracie spójności.
Licencjonowanie i dostępność Open Source
Mimo że model R1-0528 został wydany bez publicznej karty modelu na Hugging Face, pliki wagowe i konfiguracyjne są w pełni dostępne pod adresem Licencja MIT, zezwalając na nieograniczone wykorzystanie komercyjne i modyfikacje napędzane przez społeczność. Wybór licencji przez DeepSeek kontynuuje strategię rozpowszechniania „otwartych wag”, zapewniając, że instytucje badawcze i startupy mogą zintegrować model bez obciążeń.
Wpływ na rynek i krajobraz konkurencyjny
Wprowadzenie DeepSeek R1 w styczniu 2025 r. zburzyło panujące założenia dotyczące kosztów i skali wymaganych dla najnowocześniejszej AI, co skłoniło amerykańskich rywali do dostosowania cen i wprowadzenia lżejszych modeli (np. OpenAI's o3 Mini). Dzięki R1-0528 DeepSeek potwierdza swoją pozycję wiodącego pretendenta do open source, napędzając konkurencję zarówno pod względem wydajności, jak i ceny z OpenAI, Google Gemini, Alibaba i Anthropic.
Perspektywy na przyszłość
Od czasu premiery w styczniu DeepSeek R1 wywołał już strategiczne reakcje głównych graczy AI — w szczególności wpływając na zmiany cen OpenAI i plan działania Google dla modeli Gemini. Oczekuje się, że aktualizacja R1-0528 nasili presję konkurencyjną, szczególnie wśród firm poszukujących opłacalnych, ale wydajnych alternatyw dla zastrzeżonych LLM. Tymczasem amerykańscy regulatorzy podnieśli obawy dotyczące bezpieczeństwa narodowego w związku z szybkimi postępami DeepSeek, podkreślając geopolityczne stawki rozprzestrzeniania się AI typu open source.
Jak zacząć
CometAPI zapewnia ujednolicony interfejs REST, który agreguje setki modeli AI — w ramach spójnego punktu końcowego, z wbudowanym zarządzaniem kluczami API, limitami wykorzystania i panelami rozliczeniowymi. Zamiast żonglować wieloma adresami URL dostawców i poświadczeniami.
Programiści mogą uzyskać dostęp do najnowszych wersji Interfejs API DeepSeek R1 (nazwa modelu: deepseek-r1-0528) Poprzez Interfejs API CometNa początek zapoznaj się z możliwościami modelu w Plac zabaw i zapoznaj się z Przewodnik po API aby uzyskać szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API, cena w CometAPI:
- Żetony wejściowe: 0.44 USD / mln żetonów
- Tokeny wyjściowe: 1.752 USD / mln tokenów



