DeepSeek, syarikat permulaan AI China yang mula-mula menjadi tajuk utama dengan model penaakulan R1 pada awal 2025, telah mencetuskan perdebatan sengit mengenai keadaan AI sumber terbuka dan implikasinya yang lebih luas. Walaupun kebanyakan perhatian tertumpu pada prestasinya yang mengagumkan—menyaingi model daripada firma AS seperti OpenAI dan Alibaba—persoalan tetap sama ada DeepSeek benar-benar "sumber terbuka" dalam semangat dan amalan. Artikel ini menyelidiki perkembangan terkini sekitar DeepSeek, meneroka kelayakan sumber terbukanya, membandingkannya dengan model seperti GPT-4.1, dan menilai kesan untuk landskap AI global.
Apakah DeepSeek dan Bagaimana Ia Muncul?
Asal dan Cita-cita DeepSeek
DeepSeek diasaskan di bawah nama Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd., dengan Liang Wenfeng (juga dirujuk sebagai Wenfeng Liang) mengetuai pertuduhan itu sebagai visi utamanya. Etosnya menyimpang daripada banyak syarikat permulaan Silicon Valley: daripada mengutamakan pengkomersialan pantas, DeepSeek menekankan kecekapan penyelidikan dan keberkesanan kos. Menjelang awal 2025, model R1 DeepSeek telah pun mendapat perhatian kerana memadankan atau melebihi penanda aras utama dalam penaakulan matematik dan penjanaan kod, walaupun dibangunkan di bawah kekangan kawalan eksport AS pada cip AI mewah .
Kejayaan dalam Model Penaakulan
Pada Januari 2025, DeepSeek telah melancarkan R1 di bawah lesen MIT—lesen permisif sumber terbuka—mendakwa bahawa R1 mencapai "79.8% Lulus@1 pada AIME 2024, mengatasi sedikit OpenAI-o1-1217" dan menjaringkan "97.3% pada MATH-500, setanding dengan model awam dan luar biasa" yang lain. Mengenai tugas pengekodan, R1 mencapai penarafan 1 Elo pada Codeforces, mengatasi 2,029% peserta manusia, menunjukkan bahawa model itu bukan sekadar latihan teori tetapi alat berprestasi tinggi yang sesuai untuk aplikasi dunia sebenar .
Dengan memanfaatkan teknik seperti lapisan campuran pakar (MoE) dan latihan mengenai cip AI yang lebih lemah—diperlukan oleh sekatan perdagangan—DeepSeek mengurangkan kos latihan secara mendadak. Pemerhati menyatakan bahawa pendekatannya bukan sahaja mencabar kebergantungan yang diandaikan pada perkakasan peringkat teratas tetapi juga menghantar "gelombang kejutan" melalui industri, menyebabkan nilai pasaran Nvidia turun kira-kira $600 bilion dalam satu sesi—"penurunan syarikat tunggal terbesar dalam sejarah pasaran saham AS".
Adakah DeepSeek Benar-benar Sumber Terbuka?
Pelesenan dan Ketersediaan
Model R1 DeepSeek telah dikeluarkan di bawah Lesen MIT pada Wajah Memeluk pada Januari 2025, membenarkan penggunaan komersial tanpa had, pengubahsuaian dan pengagihan semula berat model dan kod yang berkaitan . Pilihan pelesenan ini secara teknikal mengklasifikasikan R1 sebagai projek sumber terbuka, namun dalam amalan, nuansa timbul. Walaupun berat model dan kod inferens tersedia secara terbuka, ia belum mengeluarkan set data latihan penuh atau saluran paip latihan yang tepat. Peninggalan ini menimbulkan persoalan sama ada ia layak sebagai sumber terbuka "sepenuhnya" dalam semangat yang sama seperti projek yang berkongsi butiran kebolehulangan hujung ke hujung. Sebagai contoh, walaupun sesiapa sahaja boleh memuat turun dan memperhalusi R1, mereka tidak boleh meniru prosedur latihan asal DeepSeek tanpa akses kepada data proprietari dan konfigurasi kluster (cth, kluster Fire-Flyer menggunakan 5,000 GPU A100) .
Ketelusan Data Latihan
Purists sumber terbuka sering menekankan bukan sahaja ketersediaan berat model dan kod, tetapi juga ketelusan mengenai data latihan, skrip prapemprosesan dan penanda aras penilaian. Dalam kesnya, syarikat itu telah berkongsi butiran peringkat tinggi—seperti penggunaan "data sintetik yang dijana oleh R1" untuk memperhalusi varian suling dan penggabungan fungsi ganjaran berasaskan peraturan untuk R1-Zero—tetapi telah menahan butiran khusus tentang asal data dan proses penyusunan. Tanpa maklumat ini, penyelidik luar tidak boleh mengaudit sepenuhnya untuk potensi berat sebelah, pencemaran data atau kebocoran privasi yang tidak diingini, meninggalkan persoalan terbuka tentang implikasi etika dan keselamatan model.
Penglibatan Komuniti dan Garpu
Sejak keluaran sumber terbuka, DeepSeek-R1 telah menarik forks dan eksperimen dipacu komuniti pada platform seperti Hugging Face. Pembangun telah melaporkan menyesuaikan varian "disuling" yang lebih kecil (antara 1.5 bilion hingga 70 bilion parameter) untuk dijalankan pada perkakasan komoditi, seperti GPU pengguna, dengan itu meluaskan akses. Walau bagaimanapun, masih belum ada cabaran bebas sepenuhnya untuk menghasilkan semula R1 dari awal, sebahagiannya disebabkan oleh sumber pengiraan yang sangat besar yang diperlukan dan ketiadaan set data mentah yang dikongsi secara terbuka. Berbeza dengan LLaMA, yang melahirkan pelbagai usaha pembiakan rasmi komuniti, tuntutan "sumber terbuka" DeepSeek bergantung terutamanya pada penyediaan pemberat dan bukannya membolehkan ketelusan penyelidikan yang diterajui komuniti sepenuhnya.
Bagaimanakah DeepSeek Berbanding dengan Model AI Lain?
Penandaarasan Terhadap OpenAI o1, o3 dan GPT-4.1
Metrik prestasi DeepSeek-R1 meletakkannya di antara peringkat teratas model penaakulan. Menurut penanda aras dalaman pada LiveCodeBench (dibangunkan oleh UC Berkeley, MIT, dan Cornell), R1-0528 DeepSeek yang dikemas kini berada tepat di bawah o4-mini dan o3 OpenAI dalam penjanaan kod tetapi mengatasi Grok 3-mini xAI dan Qwen 3 mini Alibaba. Sementara itu, GPT-4.1 OpenAI, dikeluarkan pada 14 April 2025, menawarkan tetingkap konteks satu juta token dan cemerlang dalam pengekodan, mengikut arahan dan tugasan konteks panjang berbanding GPT-4o sebelumnya.
Apabila membandingkan R1 dengan GPT-4.1, beberapa faktor muncul:
- Prestasi pada Kod dan Penanda Aras Matematik: R1 mencapai 79.8% Lulus@1 pada AIME 2024 dan 97.3% markah pada MATH-500, sedikit mengatasi o1. GPT-4.1 pula, mencapai anggaran ~54.6% pada pengekodan (SWE-bench Verified) dan 72% pada tugasan konteks panjang—metrik yang, walaupun mengagumkan, tidak dapat dibandingkan secara langsung dengan penanda aras penaakulan khusus R1.
- Tetingkap Konteks: GPT-4.1 menyokong sehingga satu juta token, membolehkannya memproses keseluruhan buku atau pangkalan kod yang panjang dalam satu laluan. R1 DeepSeek tidak sepadan dengan panjang konteks ini, sebaliknya memfokuskan pada penaakulan dan kecekapan inferens pada input yang lebih pendek .
- Kecekapan Kos: Pada Hugging Face, kos akses API R1 sehingga 95% kurang daripada o1 OpenAI, menjadikannya menarik untuk pemula dan penyelidik dengan belanjawan terhad . Harga asas GPT-4.1 ialah $2 setiap juta token input dan $8 setiap juta token keluaran, dengan varian mini dan nano berharga lebih rendah ($0.40/$1.60 dan $0.10/$0.40, masing-masing). Model suling DeepSeek boleh dijalankan pada komputer riba, menawarkan satu lagi tahap penjimatan kos pada peringkat keperluan perkakasan.
Perbezaan Seni Bina
Model R1 DeepSeek memanfaatkan seni bina campuran pakar (MoE), di mana sebahagian besar rangkaian diaktifkan hanya seperti yang diperlukan, dengan ketara mengurangkan kos pengiraan inferens. Lapisan KPM ini, digabungkan dengan perpustakaan komunikasi tak segerak (cth, hfreduce) dan rangka kerja DDP Fire-Flyer, membolehkan DeepSeek menskalakan tugas penaakulan merentas kelompok perkakasan yang lebih lemah di bawah sekatan perdagangan .
Sebaliknya, GPT-4.1 menggunakan lapisan pengubah padat di seluruh rangkaiannya untuk mengendalikan tetingkap konteks satu juta token. Walaupun ini membawa kepada prestasi unggul pada tugas konteks panjang, ia juga memerlukan pengiraan yang besar untuk latihan dan inferens, justeru penentuan harga kedudukan premium GPT-4.1 berbanding model yang lebih kecil seperti GPT-4.1 mini dan nano.
Apakah Implikasi Pendekatan Sumber Terbuka DeepSeek?
Kesan terhadap Pertandingan AI Global
Keluaran sumber terbuka DeepSeek melemahkan buku permainan tradisional Silicon Valley bagi model proprietari dan embargo data. Dengan menjadikan R1 tersedia secara terbuka di bawah lesen MIT, DeepSeek telah mencabar tanggapan bahawa AI berprestasi tinggi mesti kekal ditutup atau dilesenkan secara eksklusif. Kejatuhan serta-merta dapat dirasai: gergasi teknologi AS melaraskan harga (cth, OpenAI melancarkan GPT-4.1 mini dan nano pada kos yang lebih rendah) dan mempercepatkan pembangunan model tertumpu penaakulan mereka sendiri, seperti o4-mini, untuk mengekalkan bahagian pasaran. Pengulas industri melabelkan kemunculan DeepSeek sebagai "detik Sputnik" yang mungkin untuk AI AS, menandakan peralihan dalam kawalan hegemoni ke atas keupayaan asas AI.
Strategi sumber terbuka DeepSeek turut mempengaruhi sentimen modal teroka. Walaupun sesetengah pelabur bimbang bahawa menyokong firma AI AS boleh menghasilkan pulangan yang berkurangan jika alternatif sumber terbuka China berkembang pesat, yang lain melihatnya sebagai peluang untuk mempelbagaikan kerjasama penyelidikan AI global. Pemodal teroka Marc Andreessen memuji R1 sebagai "salah satu kejayaan yang paling menakjubkan dan mengagumkan" dan "hadiah yang mendalam kepada dunia". Sementara itu, keluaran GPT-4.1 OpenAI pada April 2025 boleh dilihat sebahagiannya sebagai langkah balas kepada model sumber terbuka kos efektif DeepSeek, menunjukkan bahawa akses terbuka tidak perlu mengorbankan prestasi canggih.
Kebimbangan Keselamatan dan Privasi
Walaupun terdapat keghairahan terhadap pendemokrasian AI sumber terbuka, asal DeepSeek telah menaikkan bendera merah di kalangan penyokong privasi dan agensi kerajaan. Pada Januari 2025, Suruhanjaya Perlindungan Maklumat Peribadi (PIPC) Korea Selatan mengesahkan bahawa perkhidmatan dalam taliannya menghantar data pengguna Korea Selatan ke pelayan ByteDance di China, menyebabkan larangan muat turun apl baharu sehingga isu pematuhan ditangani . Pelanggaran data berikutnya pada akhir Januari 2025 mendedahkan lebih sejuta entri sensitif—mesej sembang, kunci API dan log sistem—disebabkan pangkalan data storan awan yang salah konfigurasi, yang memburukkan lagi kebimbangan tentang amalan keselamatan data DeepSeek.
Memandangkan peraturan China yang boleh memaksa syarikat untuk berkongsi data dengan pihak berkuasa negeri, sesetengah kerajaan dan perusahaan Barat tetap berhati-hati untuk menyepadukan DeepSeek ke dalam aliran kerja kritikal. Walaupun DeepSeek telah mengambil langkah untuk melindungi infrastrukturnya (cth, menampal pangkalan data terdedah dalam masa sejam), keraguan berterusan mengenai pintu belakang yang berpotensi atau penyalahgunaan untuk operasi pengaruh. Wired melaporkan bahawa perkhidmatan dalam talian DeepSeek yang menghantar data ke negara asalnya "mungkin menetapkan peringkat untuk penelitian yang lebih baik," dan badan kawal selia di Eropah dan AS telah membayangkan pemeriksaan lebih dekat di bawah rangka kerja GDPR dan CCPA .
Pengaruh terhadap Kos Perkakasan dan Infrastruktur
Keupayaan DeepSeek untuk melatih dan menggunakan model penaakulan berprestasi tinggi pada perkakasan suboptimum mempunyai kesan riak pada pasaran infrastruktur AI yang lebih luas. Dengan menunjukkan bahawa lapisan KPM dan selari yang dioptimumkan (cth, HaiScale DDP) boleh memberikan ketepatan penaakulan yang setanding kepada model padat sepenuhnya, DeepSeek memaksa penyedia awan utama—Microsoft Azure, AWS dan Google Cloud—untuk menilai penyepaduan teknik pengoptimuman DeepSeek. Microsoft dan Amazon dilaporkan telah mula menawarkan DeepSeek-R1 sebagai sebahagian daripada katalog perkhidmatan AI mereka, memenuhi keperluan pelanggan yang mencari alternatif kos lebih rendah kepada API GPT-4.1 atau o1 .
Tambahan pula, NVIDIA, secara sejarahnya merupakan pembekal GPU yang dominan, bertindak balas terhadap kecekapan yang dipacu oleh MoE dengan menekankan perkakasan khusus (cth, GPU yang didayakan HBM3 dan topologi NVLink) untuk mengekalkan kelebihan daya saingnya. Kemeruapan harga saham NVIDIA berikutan kenaikannya menekankan bagaimana kejayaan dalam kecekapan algoritma boleh membentuk semula ramalan permintaan perkakasan. Oleh itu, walaupun tanpa mendedahkan perkakasan proprietari, DeepSeek secara tidak langsung telah mempengaruhi peta jalan untuk pemecut AI masa hadapan.
Apakah yang didedahkan oleh kemas kini R1-0528 terkini tentang komitmen DeepSeek terhadap keterbukaan?
Penambahbaikan teknikal dalam R1-0528
Diumumkan pada 28 Mei 2025, kemas kini R1-0528 DeepSeek menjanjikan peningkatan ketara dalam penaakulan matematik, tugas pengaturcaraan dan pengurangan halusinasi—ralat dalam maklumat yang dijana oleh AI. Walaupun DeepSeek menyifatkan keluaran ini sebagai "naik taraf percubaan kecil", penanda aras pada UC Berkeley, MIT, dan LiveCodeBench Cornell menunjukkan bahawa R1-0528 berprestasi secara kompetitif dengan model o3 dan o4-mini OpenAI. Kemas kini itu juga mengulangi dasar sumber terbuka yang telus dengan mengeluarkan pemberat baharu dan kod inferens pada Wajah Memeluk sejurus selepas pengumuman itu, mengukuhkan komitmennya terhadap pembangunan dipacu komuniti dan pengoptimuman kolaboratif.
Sambutan dan maklum balas komuniti
Komuniti pemaju telah bertindak balas secara positif kepada R1-0528, memetik pengurangan kadar halusinasi dan ketekalan logik yang lebih baik dalam output. Perbincangan di forum seperti Hugging Face dan GitHub menunjukkan bahawa penyelidik menghargai peningkatan prestasi ketara tanpa mengorbankan keizinan Lesen MIT. Walau bagaimanapun, sesetengah penyumbang telah menyatakan kebimbangan mengenai kelegapan data latihan dan potensi pengaruh arahan negeri dalam penalaan halus, dengan menekankan bahawa pelesenan sumber terbuka sahaja tidak menjamin ketelusan penuh. Dialog ini menekankan keperluan untuk penglibatan komuniti yang berterusan untuk memastikan bahawa etos sumber terbukanya diterjemahkan ke dalam sistem AI yang boleh diaudit dan boleh dipercayai.
kesimpulan
Penyelidikan DeepSeek ke dalam AI sumber terbuka telah mentakrifkan semula jangkaan untuk kebolehaksesan, prestasi dan kecekapan kos. Walaupun model R1nya secara teknikal adalah sumber terbuka di bawah lesen MIT, ketiadaan data latihan penuh dan ketelusan saluran paip merumitkan klasifikasinya sebagai "terbuka sepenuhnya". Namun begitu, pencapaiannya—melatih model penaakulan yang berkuasa di bawah kekangan perkakasan dan menjadikannya tersedia secara meluas—telah mendorong keterujaan dan penelitian yang berhati-hati di seluruh komuniti AI global.
Perbandingan dengan GPT-4.1 OpenAI mendedahkan landskap bernuansa: DeepSeek cemerlang dalam tugas penaakulan yang disasarkan dan tetapan sensitif kos, manakala tetingkap konteks besar GPT-4.1 dan keunggulan penanda aras yang meluas menjadikannya pilihan untuk aplikasi perusahaan mewah. Memandangkan DeepSeek membangunkan model R2nya dan mengembangkan kerjasama dengan penyedia awan, nasibnya bergantung pada menangani kebimbangan privasi data, memastikan pematuhan kawal selia dan berpotensi menerima ketelusan yang lebih besar dalam proses penyelidikannya.
Akhirnya, kebangkitan DeepSeek menyerlahkan bahawa AI sumber terbuka bukan lagi ideal teori tetapi persaingan membentuk semula daya praktikal. Dengan mencabar penyandang yang berakar umbi, DeepSeek telah mempercepatkan kitaran inovasi, mendorong kedua-dua firma mapan dan pendatang baharu untuk memikirkan semula cara mereka membangun, melesenkan dan menggunakan sistem AI. Dalam persekitaran dinamik ini—di mana GPT-4.1 menetapkan satu penanda aras dan DeepSeek-R1 yang lain—masa depan AI sumber terbuka kelihatan lebih menjanjikan dan bergelora berbanding sebelum ini.
Bermula
CometAPI menyediakan antara muka REST bersatu yang mengagregatkan ratusan model AI—di bawah titik akhir yang konsisten, dengan pengurusan kunci API terbina dalam, kuota penggunaan dan papan pemuka pengebilan. Daripada menyulap berbilang URL vendor dan bukti kelayakan, anda menunjukkan pelanggan anda pada url asas dan menentukan model sasaran dalam setiap permintaan.
Pembangun boleh mengakses API DeepSeek seperti DeepSeek-V3(nama model: deepseek-v3-250324) dan Deepseek R1 (nama model: deepseek-r1-0528) Melalui CometAPI.Untuk bermula, terokai keupayaan model dalam Taman Permainan dan berunding dengan Panduan API untuk arahan terperinci. Sebelum mengakses, sila pastikan anda telah log masuk ke CometAPI dan memperoleh kunci API.
Baru menggunakan CometAPI? Mulakan percubaan 1$ percuma dan lepaskan Sora pada tugas paling sukar anda.
Kami tidak sabar untuk melihat apa yang anda bina. Jika sesuatu terasa tidak menyenangkan, tekan butang maklum balas—memberitahu kami perkara yang rosak adalah cara terpantas untuk menjadikannya lebih baik.
