Das chinesische KI-Startup DeepSeek hat heute ein inkrementelles, aber wirkungsvolles Update seines Flaggschiff-Reasoning-Modells R1 veröffentlicht, das als DeepSeek R1-0528, auf der Hugging Face Plattform. Veröffentlicht unter der permissiven MIT-Lizenz auf May 28, 2025Das Update baut auf der ursprünglichen R1-Version vom Januar 2025 auf, die erstmals zeigte, dass Open-Source-Sprachmodelle sowohl hinsichtlich der Leistung als auch der Kosteneffizienz mit proprietären Angeboten konkurrieren können. Obwohl R1-0528 intern als „geringfügiges Test-Upgrade“ beschrieben wird, enthält es wesentliche Verbesserungen hinsichtlich der Komplexität des Schlussfolgerungsprozesses, der Genauigkeit der Codesynthese und der Modellzuverlässigkeit.
Update-Highlights von DeepSeek R1
Erweitertes kontextuelles „Denken“
Durch die Nutzung von Mixture-of-Experts (MoE)-Ebenen und optimierten Aufmerksamkeitsmechanismen kann R1-0528 tiefere Argumentationsketten über längere Eingaben hinweg aufrechterhalten und eignet sich daher gut für Arbeitsabläufe, die eine erweiterte Kontextspeicherung erfordern ().
Verbesserte Zuverlässigkeit und Konsistenz
Entwickler berichten von einer stabileren Ausgabe bei wiederholten Eingabeaufforderungen, mit geringerer Varianz in der Antwortqualität und weniger Timeout-Fehlern bei der Verarbeitung langer, kontextreicher Abfragen.
Verbessertes Denken
Die zugrunde liegende Architektur bleibt 671 Milliarden Parameter, wobei dieselben Aufmerksamkeitsmechanismen wie beim ursprünglichen Deepseek R1 genutzt werden, jedoch mit verfeinerten Gewichten und einer längeren „Denk“-Fähigkeit .
Interne Auswertungen zeigen messbare Verbesserungen bei logikintensiven Benchmarks sowie eine kohärentere mehrstufige Inferenz bei komplexen Abfragen.
Überlegene Codegenerierung
Die Benchmarks von LiveCodeBench berichten von deutlichen Fortschritten bei der KI-gestützten Codierung: R1-0528 gilt jetzt als das beste Modell chinesischen Ursprungs für Code-Aufgaben und liegt nur hinter den Konfigurationen o4-mini-high, o3-high und o4-mini-medium von OpenAI.
Übertrifft Alibabas Qwen 3 und Anthropics Claude 3.7 hinsichtlich Codierungsgenauigkeit und -effizienz.
Technische leistung
| Metrik/Benchmark | R1-0528 | R1 (Januar 2025) | Führende proprietäre |
|---|---|---|---|
| Zusammengesetzter LLM-Score | Median 69.45 | ~ 67.8 | OpenAI o3/o4-mini (~70–72) |
| Rang der Codegenerierung | Nr. 1 unter den chinesischen Modellen; insgesamt Nr. 4 weltweit | Platz 2 unter den chinesischen Modellen | Hinter OpenAI o4-mini & o3; vor Grok 3 mini |
| Kontextfenster | 163 Token (≈840 × Original) | 81 Token | Vergleichbar mit OpenAI o3-high |
| Inferenzeffizienz | 37 b aktive Parameter / 671 b insgesamt | Gleich | Ähnlich wie andere große Open-Source |
Benchmark-Plattformen:
LiveCodeBench: Positioniert R1-0528 bei Codierungsaufgaben knapp hinter OpenAIs o4-mini und o3 und übertrifft xAIs Grok 3 mini und Alibabas Qwen 3.
Zusammengesetzte LLM-Aggregate (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Ergibt eine mittlere Leistung von 69.45, wodurch es in Schlagdistanz zu den Angeboten von Claude und Gemini (Analytics Vidhya) liegt.

Erinnerung und Kontext:
Das erweiterte Kontextfenster unterstützt Codebasen, lange Dokumente und mehrstufige Dialoge mit minimalem Kohärenzverlust.
Open-Source-Lizenzierung und Zugänglichkeit
Obwohl die R1-0528-Gewichte und Konfigurationsdateien ohne öffentliche Modellkarte auf Hugging Face veröffentlicht wurden, sind sie dennoch vollständig zugänglich unter dem MIT-Lizenz, was eine uneingeschränkte kommerzielle Nutzung und Community-getriebene Modifikationen ermöglicht. Mit der Lizenzwahl setzt DeepSeek seine Strategie der Verbreitung mit „offenen Gewichten“ fort und stellt sicher, dass Forschungseinrichtungen und Startups das Modell ungehindert integrieren können.
Markteinfluss und Wettbewerbslandschaft
Die Markteinführung von DeepSeeks R1 im Januar 2025 stellte die vorherrschenden Annahmen über die Kosten und den Umfang modernster KI in Frage und veranlasste US-Konkurrenten, ihre Preise anzupassen und leichtere Modelle (z. B. OpenAIs o3 Mini) einzuführen. Mit R1-0528 bekräftigt DeepSeek seine Position als führender Open-Source-Anbieter und treibt den Wettbewerb sowohl in Bezug auf Leistung als auch Preis mit OpenAI, Google Gemini, Alibaba und Anthropic voran.
Zukunftsausblick
Seit seiner Markteinführung im Januar hat DeepSeek R1 bereits strategische Reaktionen wichtiger KI-Akteure ausgelöst – insbesondere in Bezug auf die Preisanpassungen von OpenAI und Googles Roadmap für Gemini-Modelle. Das Update R1-0528 dürfte den Wettbewerbsdruck erhöhen, insbesondere bei Unternehmen, die kostengünstige und dennoch leistungsstarke Alternativen zu proprietären LLMs suchen. US-Regulierungsbehörden haben unterdessen Bedenken hinsichtlich der nationalen Sicherheit angesichts der rasanten Fortschritte von DeepSeek geäußert und damit die geopolitischen Risiken der Verbreitung von Open-Source-KI unterstrichen.
Erste Schritte
CometAPI bietet eine einheitliche REST-Schnittstelle, die Hunderte von KI-Modellen aggregiert – unter einem konsistenten Endpunkt, mit integrierter API-Schlüsselverwaltung, Nutzungskontingenten und Abrechnungs-Dashboards. Anstatt mit mehreren Anbieter-URLs und Anmeldeinformationen zu jonglieren.
Entwickler können auf die neuesten DeepSeek R1 API (Modellname: deepseek-r1-0528) Durch CometAPI.Erkunden Sie zunächst die Möglichkeiten des Modells in der Spielplatz und konsultieren Sie die API-Leitfaden Für detaillierte Anweisungen. Stellen Sie vor dem Zugriff sicher, dass Sie sich bei CometAPI angemeldet und den API-Schlüssel erhalten haben. Preis in CometAPI:
- Eingabe-Token: 0.44 $ / M Token
- Ausgabe-Token: 1.752 $ / M Token



