DeepSeek, ein chinesisches KI-Startup, das Anfang 1 erstmals mit seinem R2025-Reasoning-Modell Schlagzeilen machte, hat eine intensive Debatte über den Stand von Open-Source-KI und ihre weitreichenden Auswirkungen ausgelöst. Während sich die Aufmerksamkeit hauptsächlich auf die beeindruckende Leistung konzentrierte – sie konkurriert mit Modellen von US-Unternehmen wie OpenAI und Alibaba –, bleibt die Frage offen, ob DeepSeek in Geist und Praxis wirklich „Open Source“ ist. Dieser Artikel befasst sich mit den neuesten Entwicklungen rund um DeepSeek, untersucht seine Open-Source-Referenzen, vergleicht es mit Modellen wie GPT-4.1 und bewertet die Auswirkungen auf die globale KI-Landschaft.
Was ist DeepSeek und wie ist es entstanden?
Ursprung und Zielsetzung von DeepSeek
DeepSeek wurde unter dem Namen Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd. gegründet. Liang Wenfeng (auch Wenfeng Liang genannt) war der Hauptvisionär und federführend. Die Unternehmensphilosophie unterschied sich von der vieler Silicon-Valley-Startups: Statt einer schnellen Kommerzialisierung standen bei DeepSeek Forschungseffizienz und Kosteneffizienz im Vordergrund. Bereits Anfang 2025 erregte DeepSeeks R1-Modell Aufmerksamkeit, weil es führende Benchmarks in mathematischer Argumentation und Codegenerierung erreichte oder übertraf, obwohl es unter den Beschränkungen der US-Exportkontrollen für High-End-KI-Chips entwickelt wurde.
Durchbruch bei Schlussfolgerungsmodellen
Im Januar 2025 stellte DeepSeek R1 unter einer MIT-Lizenz vor – einer freizügigen Open-Source-Lizenz – und behauptete, R1 habe „79.8 % Pass@1 bei AIME 2024 erreicht und damit OpenAI-o1-1217 knapp übertroffen“ und „97.3 % bei MATH-500 erreicht, was auf Augenhöhe mit o1 steht und andere öffentliche Modelle übertrifft“. Bei Codierungsaufgaben erreichte R1 eine Elo-Bewertung von 2,029 bei Codeforces und übertraf damit 96.3 % der menschlichen Teilnehmer. Dies weist darauf hin, dass das Modell nicht nur eine theoretische Übung war, sondern ein leistungsstarkes, für reale Anwendungen geeignetes Tool.
Durch den Einsatz von Techniken wie Expertenmischungen (MoE) und Training auf schwächeren KI-Chips – notwendig aufgrund von Handelsbeschränkungen – reduzierte DeepSeek die Trainingskosten drastisch. Beobachter bemerkten, dass dieser Ansatz nicht nur die vermeintliche Abhängigkeit von Spitzenhardware in Frage stellte, sondern auch Schockwellen durch die Branche schickte. Nvidias Marktwert sank in einem einzigen Jahr um rund 600 Milliarden Dollar – „der größte Rückgang eines einzelnen Unternehmens in der Geschichte des US-Aktienmarkts“.
Ist DeepSeek wirklich Open Source?
Lizenzierung und Verfügbarkeit
Das R1-Modell von DeepSeek wurde im Januar 2025 unter der MIT-Lizenz auf Hugging Face veröffentlicht und erlaubt die uneingeschränkte kommerzielle Nutzung, Änderung und Weiterverbreitung der Modellgewichte und des zugehörigen Codes. Diese Lizenzierungswahl klassifiziert R1 technisch als Open-Source-Projekt, in der Praxis ergeben sich jedoch Nuancen. Während die Modellgewichte und der Inferenzcode öffentlich verfügbar sind, wurden weder der vollständige Trainingsdatensatz noch die genauen Trainings-Pipelines veröffentlicht. Diese Auslassung wirft die Frage auf, ob es im selben Sinne als „vollständig“ Open Source gilt wie Projekte, die Details zur End-to-End-Reproduzierbarkeit teilen. Beispielsweise kann zwar jeder R1 herunterladen und optimieren, aber niemand kann das ursprüngliche Trainingsverfahren von DeepSeek ohne Zugriff auf die proprietären Daten und Cluster-Konfigurationen (z. B. die Fire-Flyer-Cluster mit 5,000 A100-GPUs) replizieren.
Transparenz der Trainingsdaten
Open-Source-Puristen legen oft nicht nur Wert auf die Verfügbarkeit von Modellgewichten und Code, sondern auch auf Transparenz hinsichtlich Trainingsdaten, Vorverarbeitungsskripten und Evaluierungsbenchmarks. In seinem Fall hat das Unternehmen zwar wichtige Details bekannt gegeben – beispielsweise die Verwendung von „von R1 generierten synthetischen Daten“ zur Feinabstimmung destillierter Varianten und die Integration regelbasierter Belohnungsfunktionen für R1-Zero –, jedoch keine Details zur Datenherkunft und zu Kuratierungsprozessen genannt. Ohne diese Informationen können externe Forscher potenzielle Verzerrungen, Datenkontaminationen oder unbeabsichtigte Datenschutzverletzungen nicht umfassend prüfen, was Fragen zu den ethischen und sicherheitsrelevanten Auswirkungen des Modells offen lässt.
Community-Engagement und Forks
Seit seiner Open-Source-Veröffentlichung hat DeepSeek-R1 Forks und Community-getriebene Experimente auf Plattformen wie Hugging Face hervorgebracht. Entwickler berichten von der Anpassung kleinerer „destillierter“ Varianten (mit 1.5 bis 70 Milliarden Parametern) für Standardhardware wie Consumer-GPUs und erweitern so den Zugang. Bisher gab es jedoch keine vollständig unabhängige Reproduktion von R1, was teilweise auf den enormen Rechenaufwand und das Fehlen öffentlich zugänglicher Rohdatensätze zurückzuführen ist. Im Gegensatz zu LLaMA, das mehrere offizielle Reproduktionsversuche der Community hervorbrachte, basiert DeepSeeks „Open-Source“-Anspruch in erster Linie auf der Bereitstellung von Gewichten und nicht auf der Ermöglichung vollständiger Transparenz der Community-geführten Forschung.
Wie schneidet DeepSeek im Vergleich zu anderen KI-Modellen ab?
Benchmarking gegen OpenAI o1, o3 und GPT-4.1
Die Leistungskennzahlen von DeepSeek-R1 positionieren es in der Spitzengruppe der Reasoning-Modelle. Laut internen Benchmarks auf LiveCodeBench (entwickelt von UC Berkeley, MIT und Cornell) liegt DeepSeeks aktualisierter R1-0528 bei der Codegenerierung knapp hinter OpenAIs o4-mini und o3, übertrifft aber xAIs Grok 3-mini und Alibabas Qwen 3 mini. OpenAIs GPT-4.1, veröffentlicht am 14. April 2025, verfügt über ein Kontextfenster von einer Million Token und übertrifft seinen Vorgänger GPT-4o in den Bereichen Codierung, Anweisungsverfolgung und Aufgaben mit langen Kontexten.
Beim Vergleich von R1 mit GPT-4.1 fallen mehrere Faktoren auf:
- Leistung bei Code- und Mathematik-Benchmarks: R1 erreicht 79.8 % Pass@1 bei AIME 2024 und 97.3 % bei MATH-500 und übertrifft damit o1 leicht. GPT-4.1 wiederum erreicht schätzungsweise ~54.6 % beim Codieren (SWE-Bench verifiziert) und 72 % bei Aufgaben mit langem Kontext – Kennzahlen, die zwar beeindruckend sind, aber nicht direkt mit den spezialisierten Denk-Benchmarks von R1 vergleichbar sind.
- Kontextfenster: GPT-4.1 unterstützt bis zu einer Million Token und kann damit ganze Bücher oder umfangreiche Codebasen in einem Durchgang verarbeiten. DeepSeeks R1 erreicht diese Kontextlänge nicht und konzentriert sich stattdessen auf die Effizienz von Argumentation und Inferenz bei kürzeren Eingaben.
- Kosteneffizienz: Auf Hugging Face ist der API-Zugriff von R1 bis zu 95 % günstiger als der von OpenAI o1, was es für Startups und Forscher mit begrenztem Budget attraktiv macht. Der Grundpreis von GPT-4.1 beträgt 2 US-Dollar pro Million Input-Token und 8 US-Dollar pro Million Output-Token, wobei die Mini- und Nano-Varianten sogar noch günstiger sind (0.40 US-Dollar/1.60 US-Dollar bzw. 0.10 US-Dollar/0.40 US-Dollar). Die destillierten Modelle von DeepSeek sind auf Laptops lauffähig und bieten so weitere Kosteneinsparungen bei den Hardwareanforderungen.
Architektonische Unterschiede
Das R1-Modell von DeepSeek nutzt eine Experten-Mixtur (MoE), bei der große Teile des Netzwerks nur bei Bedarf aktiviert werden, was die Inferenzberechnungskosten deutlich reduziert. Diese MoE-Schichten, kombiniert mit asynchronen Kommunikationsbibliotheken (z. B. hfreduce) und das Fire-Flyer DDP-Framework ermöglichen es DeepSeek, Reasoning-Aufgaben über schwächere Hardware-Cluster hinweg unter Handelsbeschränkungen zu skalieren.
Im Gegensatz dazu verwendet GPT-4.1 dichte Transformer-Schichten im gesamten Netzwerk, um das Kontextfenster von einer Million Token zu verarbeiten. Dies führt zwar zu einer besseren Leistung bei Aufgaben mit langen Kontexten, erfordert aber auch erhebliche Rechenleistung für Training und Inferenz. Daher ist GPT-4.1 im Vergleich zu kleineren Modellen wie GPT-4.1 mini und nano teurer.
Welche Auswirkungen hat der Open-Source-Ansatz von DeepSeek?
Auswirkungen auf den globalen KI-Wettbewerb
Die Open-Source-Version von DeepSeek untergräbt die traditionelle Silicon-Valley-Strategie proprietärer Modelle und Datenembargos. Indem DeepSeek R1 unter einer MIT-Lizenz öffentlich zugänglich macht, stellt es die Vorstellung in Frage, dass Hochleistungs-KI geschlossen oder exklusiv lizenziert bleiben muss. Die unmittelbaren Folgen waren spürbar: US-amerikanische Technologiegiganten passten ihre Preise an (z. B. brachte OpenAI GPT-4.1 mini und nano zu niedrigeren Kosten auf den Markt) und beschleunigten die Entwicklung eigener, schlussfolgerungszentrierter Modelle wie o4-mini, um ihren Marktanteil zu halten. Branchenkommentatoren bezeichneten DeepSeeks Aufkommen als einen möglichen „Sputnik-Moment“ für die US-KI und signalisierten damit eine Verschiebung der hegemonialen Kontrolle über grundlegende KI-Fähigkeiten.
DeepSeeks Open-Source-Strategie beeinflusste auch die Risikokapitalstimmung. Während einige Investoren befürchteten, dass die Unterstützung amerikanischer KI-Unternehmen bei der Verbreitung chinesischer Open-Source-Alternativen sinkende Renditen bringen könnte, sahen andere darin eine Chance, globale KI-Forschungskooperationen zu diversifizieren. Risikokapitalgeber Marc Andreessen lobte R1 als „einen der erstaunlichsten und beeindruckendsten Durchbrüche“ und „ein großes Geschenk an die Welt“. Die Veröffentlichung von GPT-4.1 durch OpenAI im April 2025 kann unter anderem als Gegenmaßnahme zu DeepSeeks kostengünstigem Open-Source-Modell gesehen werden und zeigt, dass Open Access nicht auf Kosten der Spitzenleistung gehen muss.
Sicherheits- und Datenschutzbedenken
Trotz der Begeisterung für die Demokratisierung von Open-Source-KI hat DeepSeeks Ursprung bei Datenschützern und Regierungsbehörden für Bedenken gesorgt. Im Januar 2025 bestätigte die südkoreanische Personal Information Protection Commission (PIPC), dass ihr Onlinedienst südkoreanische Nutzerdaten an ByteDance-Server in China sendete. Dies führte zu einem Verbot neuer App-Downloads, bis die Compliance-Probleme behoben waren. Ein anschließender Datendiebstahl Ende Januar 2025 legte aufgrund einer falsch konfigurierten Cloud-Speicherdatenbank über eine Million sensible Einträge – Chatnachrichten, API-Schlüssel und Systemprotokolle – offen, was die Bedenken hinsichtlich der Datensicherheitspraktiken von DeepSeek verstärkte.
Angesichts chinesischer Vorschriften, die Unternehmen zur Weitergabe von Daten an staatliche Behörden zwingen können, zögern einige westliche Regierungen und Unternehmen weiterhin, DeepSeek in kritische Arbeitsabläufe zu integrieren. Obwohl DeepSeek Maßnahmen zur Sicherung seiner Infrastruktur ergriffen hat (z. B. durch Patchen der exponierten Datenbank innerhalb einer Stunde), besteht weiterhin Skepsis hinsichtlich möglicher Hintertüren oder Missbrauchs für Einflussnahmeoperationen. Wired berichtete, dass der Datenversand des DeepSeek-Onlinedienstes in sein Heimatland „den Boden für eine genauere Prüfung bereiten könnte“, und Regulierungsbehörden in Europa und den USA haben eine genauere Prüfung im Rahmen der DSGVO und des CCPA angedeutet.
Einfluss auf Hardware- und Infrastrukturkosten
Die Fähigkeit von DeepSeek, leistungsstarke Reasoning-Modelle auf suboptimaler Hardware zu trainieren und einzusetzen, hat Auswirkungen auf den gesamten KI-Infrastrukturmarkt. Durch den Nachweis, dass MoE-Schichten und optimierte Parallelität (z. B. HaiScale DDP) eine vergleichbare Genauigkeit bei der Argumentation wie vollständig dichte Modelle liefern kann, hat DeepSeek die großen Cloud-Anbieter – Microsoft Azure, AWS und Google Cloud – dazu veranlasst, die Integration der Optimierungstechniken von DeepSeek zu prüfen. Berichten zufolge bieten Microsoft und Amazon DeepSeek-R1 bereits als Teil ihrer KI-Servicekataloge an und richten sich damit an Kunden, die nach kostengünstigeren Alternativen zu GPT-4.1 oder o1-APIs suchen.
Darüber hinaus reagierte NVIDIA, der traditionell dominierende GPU-Anbieter, auf die durch das Energieministerium erzielte Effizienzsteigerung mit dem Schwerpunkt auf spezialisierter Hardware (z. B. HBM3-fähige GPUs und NVLink-Topologien), um seinen Wettbewerbsvorteil zu sichern. Die Volatilität des NVIDIA-Aktienkurses nach seinem Anstieg unterstreicht, wie Durchbrüche in der algorithmischen Effizienz die Hardware-Nachfrageprognosen verändern können. Somit hat DeepSeek, auch ohne die Einführung proprietärer Hardware, indirekt die Roadmap für zukünftige KI-Beschleuniger beeinflusst.
Was verrät das neueste Update R1-0528 über DeepSeeks Engagement für Offenheit?
Technische Verbesserungen in R1-0528
Das am 28. Mai 2025 angekündigte Update R1-0528 von DeepSeek verspricht deutliche Verbesserungen im mathematischen Denken, bei Programmieraufgaben und der Reduzierung von Halluzinationen – Fehlern in KI-generierten Informationen. DeepSeek bezeichnete diese Version zwar als „kleines Test-Upgrade“, doch Benchmarkings auf LiveCodeBench von UC Berkeley, MIT und Cornell zeigen, dass R1-0528 mit den o3- und o4-mini-Modellen von OpenAI konkurrieren kann. Das Update bekräftigt zudem die transparente Open-Source-Politik des Unternehmens, indem es den neuen Code für Gewichte und Inferenz kurz nach der Ankündigung auf Hugging Face veröffentlichte und damit sein Engagement für community-getriebene Entwicklung und kollaborative Optimierung unterstreicht.
Community-Empfang und Feedback
Die Entwicklergemeinde reagierte positiv auf R1-0528 und verwies auf reduzierte Halluzinationsraten und eine verbesserte logische Konsistenz der Ergebnisse. Diskussionen in Foren wie Hugging Face und GitHub deuten darauf hin, dass Forscher die spürbaren Leistungssteigerungen schätzen, ohne die Flexibilität der MIT-Lizenz zu beeinträchtigen. Einige Teilnehmer äußerten jedoch Bedenken hinsichtlich der Intransparenz der Trainingsdaten und des möglichen Einflusses staatlicher Vorgaben auf die Feinabstimmung und betonten, dass Open-Source-Lizenzen allein keine vollständige Transparenz garantieren. Diese Dialoge unterstreichen die Notwendigkeit eines kontinuierlichen Engagements der Community, um sicherzustellen, dass ihr Open-Source-Ethos in überprüfbaren, vertrauenswürdigen KI-Systemen umgesetzt wird.
Schlussfolgerungen
DeepSeeks Vorstoß in die Open-Source-KI hat die Erwartungen an Zugänglichkeit, Leistung und Kosteneffizienz neu definiert. Obwohl das R1-Modell technisch gesehen Open Source unter einer MIT-Lizenz ist, erschwert das Fehlen vollständiger Trainingsdaten und der fehlenden Transparenz der Pipeline seine Einstufung als „vollständig“ offen. Dennoch haben seine Erfolge – das Training leistungsstarker Reasoning-Modelle unter Hardwarebeschränkungen und deren breite Verfügbarkeit – in der globalen KI-Community sowohl Begeisterung als auch vorsichtige Kritik ausgelöst.
Vergleiche mit OpenAIs GPT-4.1 zeigen ein differenziertes Bild: DeepSeek zeichnet sich durch gezielte Schlussfolgerungsaufgaben und kostensensitive Umgebungen aus, während GPT-4.1 aufgrund seines großen Kontextfensters und seiner umfassenden Benchmark-Überlegenheit die erste Wahl für anspruchsvolle Unternehmensanwendungen ist. Während DeepSeek sein R2-Modell weiterentwickelt und die Zusammenarbeit mit Cloud-Anbietern ausbaut, wird sein Schicksal davon abhängen, Datenschutzbedenken zu berücksichtigen, die Einhaltung gesetzlicher Vorschriften sicherzustellen und möglicherweise noch mehr Transparenz in seinen Forschungsprozess zu bringen.
Der Aufstieg von DeepSeek unterstreicht, dass Open-Source-KI kein theoretisches Ideal mehr ist, sondern eine praktische Kraft, die den Wettbewerb neu gestaltet. Indem DeepSeek etablierte Unternehmen herausfordert, beschleunigt es den Innovationszyklus und veranlasst sowohl etablierte Unternehmen als auch neue Marktteilnehmer, die Entwicklung, Lizenzierung und Bereitstellung von KI-Systemen zu überdenken. In diesem dynamischen Umfeld – in dem GPT-4.1 einen Maßstab setzt und DeepSeek-R1 einen anderen – erscheint die Zukunft der Open-Source-KI vielversprechender und turbulenter denn je.
Erste Schritte
CometAPI bietet eine einheitliche REST-Schnittstelle, die Hunderte von KI-Modellen unter einem einheitlichen Endpunkt aggregiert, mit integrierter API-Schlüsselverwaltung, Nutzungskontingenten und Abrechnungs-Dashboards. Anstatt mit mehreren Anbieter-URLs und Anmeldeinformationen zu jonglieren, verweisen Sie Ihren Client auf die Basis-URL und geben in jeder Anfrage das Zielmodell an.
Entwickler können auf die API von DeepSeek zugreifen, beispielsweise DeepSeek-V3 (Modellname: deepseek-v3-250324) und Deepseek R1 (Modellname: deepseek-r1-0528) Durch CometAPI.Erkunden Sie zunächst die Möglichkeiten des Modells in der Spielplatz und konsultieren Sie die API-Leitfaden Für detaillierte Anweisungen. Stellen Sie vor dem Zugriff sicher, dass Sie sich bei CometAPI angemeldet und den API-Schlüssel erhalten haben.
Neu bei CometAPI? Starten Sie eine kostenlose 1$-Testversion und lassen Sie Sora Ihre schwierigsten Aufgaben erledigen.
Wir sind gespannt, was Sie bauen. Wenn Sie etwas nicht mögen, klicken Sie auf den Feedback-Button. So können wir es am schnellsten verbessern.
