DeepSeek, perusahaan rintisan AI Tiongkok yang pertama kali menjadi berita utama dengan model penalaran R1-nya pada awal tahun 2025, telah memicu perdebatan sengit mengenai status AI sumber terbuka dan implikasinya yang lebih luas. Sementara sebagian besar perhatian terpusat pada kinerjanya yang mengesankan—menyaingi model dari perusahaan AS seperti OpenAI dan Alibaba—masih ada pertanyaan tentang apakah DeepSeek benar-benar "sumber terbuka" dalam semangat dan praktik. Artikel ini membahas perkembangan terbaru seputar DeepSeek, mengeksplorasi kredensial sumber terbukanya, membandingkannya dengan model seperti GPT-4.1, dan menilai konsekuensinya bagi lanskap AI global.
Apa itu DeepSeek dan Bagaimana Munculnya?
Asal Usul dan Ambisi DeepSeek
DeepSeek didirikan dengan nama Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd., dengan Liang Wenfeng (juga disebut Wenfeng Liang) sebagai pemimpin visioner utamanya. Etosnya berbeda dari banyak perusahaan rintisan di Silicon Valley: alih-alih memprioritaskan komersialisasi cepat, DeepSeek menekankan efisiensi penelitian dan efektivitas biaya. Pada awal tahun 2025, model R1 DeepSeek telah menarik perhatian karena menyamai atau melampaui tolok ukur terkemuka dalam penalaran matematika dan pembuatan kode, meskipun dikembangkan di bawah batasan kontrol ekspor AS pada chip AI kelas atas.
Terobosan dalam Model Penalaran
Pada bulan Januari 2025, DeepSeek meluncurkan R1 di bawah lisensi MIT—lisensi permisif sumber terbuka—yang mengklaim bahwa R1 mencapai “79.8% Pass@1 pada AIME 2024, sedikit melampaui OpenAI-o1-1217” dan mencetak “97.3% pada MATH-500, setara dengan o1 dan mengungguli model publik lainnya”. Pada tugas pengodean, R1 mencapai peringkat Elo 2,029 pada Codeforces, mengungguli 96.3% partisipan manusia, yang menunjukkan bahwa model tersebut bukan sekadar latihan teoretis tetapi alat berkinerja tinggi yang cocok untuk aplikasi dunia nyata.
Dengan memanfaatkan teknik seperti lapisan campuran pakar (MoE) dan pelatihan pada chip AI yang lebih lemah—yang diperlukan karena pembatasan perdagangan—DeepSeek secara drastis mengurangi biaya pelatihan. Para pengamat mencatat bahwa pendekatannya tidak hanya menantang ketergantungan yang diasumsikan pada perangkat keras tingkat atas tetapi juga mengirimkan "gelombang kejut" ke seluruh industri, yang menyebabkan nilai pasar Nvidia turun sekitar $600 miliar dalam satu sesi—"penurunan perusahaan tunggal terbesar dalam sejarah pasar saham AS".
Apakah DeepSeek Benar-Benar Open Source?
Lisensi dan Ketersediaan
Model R1 DeepSeek dirilis di bawah Lisensi MIT di Hugging Face pada Januari 2025, yang memungkinkan penggunaan komersial, modifikasi, dan pendistribusian ulang bobot model dan kode terkait tanpa batas. Pilihan lisensi ini secara teknis mengklasifikasikan R1 sebagai proyek sumber terbuka, namun dalam praktiknya, nuansa muncul. Sementara bobot model dan kode inferensi tersedia untuk umum, ia belum merilis set data pelatihan lengkap atau jalur pelatihan yang tepat. Kelalaian ini menimbulkan pertanyaan tentang apakah itu memenuhi syarat sebagai sumber terbuka "sepenuhnya" dalam semangat yang sama dengan proyek yang berbagi detail reproduktifitas ujung ke ujung. Misalnya, sementara siapa pun dapat mengunduh dan menyempurnakan R1, mereka tidak dapat mereplikasi prosedur pelatihan asli DeepSeek tanpa akses ke data kepemilikan dan konfigurasi kluster (misalnya, kluster Fire-Flyer menggunakan 5,000 GPU A100).
Transparansi Data Pelatihan
Para penganut puritan sumber terbuka sering kali menekankan tidak hanya ketersediaan bobot model dan kode, tetapi juga transparansi terkait data pelatihan, skrip praproses, dan tolok ukur evaluasi. Dalam kasusnya, perusahaan telah membagikan detail tingkat tinggi—seperti penggunaan "data sintetis yang dihasilkan oleh R1" untuk menyempurnakan varian yang disuling dan penggabungan fungsi penghargaan berbasis aturan untuk R1-Zero—tetapi telah menyembunyikan hal-hal spesifik tentang asal data dan proses kurasi. Tanpa informasi ini, peneliti eksternal tidak dapat sepenuhnya mengaudit potensi bias, kontaminasi data, atau kebocoran privasi yang tidak diinginkan, sehingga menimbulkan pertanyaan terbuka tentang implikasi etika dan keamanan model tersebut.
Keterlibatan Komunitas dan Garpu
Sejak dirilis sebagai sumber terbuka, DeepSeek-R1 telah menarik banyak cabang dan eksperimen yang digerakkan oleh komunitas pada platform seperti Hugging Face. Pengembang telah melaporkan mengadaptasi varian "suling" yang lebih kecil (berkisar dari 1.5 miliar hingga 70 miliar parameter) untuk dijalankan pada perangkat keras komoditas, seperti GPU konsumen, sehingga memperluas akses. Namun, belum ada tantangan yang sepenuhnya independen untuk mereproduksi R1 dari awal, sebagian karena sumber daya komputasi yang sangat besar yang diperlukan dan tidak adanya kumpulan data mentah yang dibagikan secara publik. Berbeda dengan LLaMA, yang memunculkan berbagai upaya reproduksi resmi komunitas, klaim "sumber terbuka" DeepSeek terutama bergantung pada penyediaan bobot daripada memungkinkan transparansi penelitian yang dipimpin komunitas sepenuhnya.
Bagaimana DeepSeek Dibandingkan dengan Model AI Lainnya?
Benchmarking terhadap OpenAI o1, o3, dan GPT-4.1
Metrik kinerja DeepSeek-R1 menempatkannya di antara model penalaran tingkat atas. Menurut tolok ukur internal di LiveCodeBench (yang dikembangkan oleh UC Berkeley, MIT, dan Cornell), R1-0528 terbaru milik DeepSeek berada tepat di bawah o4-mini dan o3 milik OpenAI dalam hal pembuatan kode, tetapi melampaui Grok 3-mini milik xAI dan Qwen 3 mini milik Alibaba. Sementara itu, GPT-4.1 milik OpenAI, yang dirilis pada tanggal 14 April 2025, memiliki jendela konteks satu juta token dan unggul dalam pengodean, mengikuti instruksi, dan tugas konteks panjang dibandingkan dengan pendahulunya GPT-4o.
Saat membandingkan R1 dengan GPT-4.1, beberapa faktor muncul:
- Kinerja pada Benchmark Kode dan Matematika: R1 meraih 79.8% Pass@1 pada AIME 2024 dan skor 97.3% pada MATH-500, sedikit melampaui o1. GPT-4.1, pada gilirannya, meraih sekitar ~54.6% pada pengodean (SWE-bench Verified) dan 72% pada tugas konteks panjang—metrik yang, meskipun mengesankan, tidak secara langsung sebanding dengan tolok ukur penalaran khusus R1.
- Jendela Konteks: GPT-4.1 mendukung hingga satu juta token, yang memungkinkannya memproses seluruh buku atau basis kode yang panjang dalam satu lintasan. R1 DeepSeek tidak sesuai dengan panjang konteks ini, sebaliknya berfokus pada efisiensi penalaran dan inferensi pada input yang lebih pendek.
- Penghematan biaya: Di Hugging Face, biaya akses API R1 hingga 95% lebih rendah daripada o1 OpenAI, sehingga menarik bagi perusahaan rintisan dan peneliti dengan anggaran terbatas. Harga dasar GPT-4.1 adalah $2 per juta token input dan $8 per juta token output, dengan varian mini dan nano yang harganya bahkan lebih rendah ($0.40/$1.60 dan $0.10/$0.40, masing-masing). Model hasil penyulingan DeepSeek dapat berjalan di laptop, yang menawarkan tingkat penghematan biaya lain pada tahap persyaratan perangkat keras.
Perbedaan Arsitektur
Model R1 DeepSeek memanfaatkan arsitektur campuran pakar (MoE), di mana sebagian besar jaringan diaktifkan hanya saat dibutuhkan, sehingga mengurangi biaya komputasi inferensi secara signifikan. Lapisan MoE ini, dikombinasikan dengan pustaka komunikasi asinkron (misalnya, hfreduce) dan kerangka kerja Fire-Flyer DDP, memungkinkan DeepSeek untuk menskalakan tugas penalaran di seluruh kluster perangkat keras yang lebih lemah di bawah pembatasan perdagangan.
Sebaliknya, GPT-4.1 menggunakan lapisan transformator padat di seluruh jaringannya untuk menangani jendela konteks satu juta token. Meskipun hal ini menghasilkan kinerja yang unggul pada tugas konteks panjang, hal ini juga memerlukan komputasi yang substansial untuk pelatihan dan inferensi, oleh karena itu harga GPT-4.1 lebih tinggi dibandingkan model yang lebih kecil seperti GPT-4.1 mini dan nano.
Apa Implikasi Pendekatan Open-Source DeepSeek?
Dampak pada Persaingan AI Global
Rilis sumber terbuka DeepSeek melemahkan buku pedoman tradisional Silicon Valley tentang model kepemilikan dan embargo data. Dengan membuat R1 tersedia untuk umum di bawah lisensi MIT, DeepSeek telah menantang gagasan bahwa AI berkinerja tinggi harus tetap tertutup atau dilisensikan secara eksklusif. Dampak langsungnya sangat terasa: raksasa teknologi AS menyesuaikan harga (misalnya, OpenAI meluncurkan GPT-4.1 mini dan nano dengan biaya lebih rendah) dan mempercepat pengembangan model mereka sendiri yang berpusat pada penalaran, seperti o4-mini, untuk mempertahankan pangsa pasar. Komentator industri menyebut kemunculan DeepSeek sebagai kemungkinan "momen Sputnik" untuk AI AS, yang menandakan pergeseran dalam kendali hegemonik atas kemampuan AI yang mendasar.
Strategi sumber terbuka DeepSeek juga memengaruhi sentimen modal ventura. Sementara beberapa investor khawatir bahwa mendukung perusahaan AI AS dapat menghasilkan keuntungan yang semakin berkurang jika alternatif sumber terbuka Tiongkok menjamur, yang lain melihatnya sebagai peluang untuk mendiversifikasi kolaborasi penelitian AI global. Kapitalis ventura Marc Andreessen memuji R1 sebagai "salah satu terobosan paling menakjubkan dan mengesankan" dan "hadiah yang sangat berharga bagi dunia". Sementara itu, rilis GPT-4.1 OpenAI pada bulan April 2025 dapat dilihat sebagian sebagai tindakan balasan terhadap model sumber terbuka DeepSeek yang hemat biaya, yang menunjukkan bahwa akses terbuka tidak perlu mengorbankan kinerja mutakhir.
Masalah Keamanan dan Privasi
Meskipun antusiasme atas demokratisasi AI sumber terbuka meningkat, asal-usul DeepSeek telah menimbulkan tanda bahaya di kalangan pendukung privasi dan lembaga pemerintah. Pada Januari 2025, Komisi Perlindungan Informasi Pribadi (PIPC) Korea Selatan mengonfirmasi bahwa layanan daringnya mengirimkan data pengguna Korea Selatan ke server ByteDance di Tiongkok, yang mendorong larangan pengunduhan aplikasi baru hingga masalah kepatuhan ditangani. Pelanggaran data berikutnya pada akhir Januari 2025 mengungkap lebih dari satu juta entri sensitif—pesan obrolan, kunci API, dan log sistem—karena basis data penyimpanan cloud yang salah dikonfigurasi, yang memperburuk kekhawatiran tentang praktik keamanan data DeepSeek.
Mengingat peraturan Tiongkok yang dapat memaksa perusahaan untuk berbagi data dengan otoritas negara, beberapa pemerintah dan perusahaan Barat tetap waspada untuk mengintegrasikan DeepSeek ke dalam alur kerja yang penting. Meskipun DeepSeek telah mengambil langkah-langkah untuk mengamankan infrastrukturnya (misalnya, menambal basis data yang terekspos dalam waktu satu jam), skeptisisme tetap ada mengenai potensi pintu belakang atau penyalahgunaan untuk operasi pengaruh. Wired melaporkan bahwa layanan daring DeepSeek yang mengirimkan data ke negara asalnya "mungkin akan menjadi ajang pengawasan yang lebih ketat," dan badan-badan regulasi di Eropa dan AS telah mengisyaratkan pemeriksaan yang lebih ketat berdasarkan kerangka kerja GDPR dan CCPA.
Pengaruh pada Biaya Perangkat Keras dan Infrastruktur
Kemampuan DeepSeek untuk melatih dan menerapkan model penalaran berkinerja tinggi pada perangkat keras yang kurang optimal memiliki efek berantai pada pasar infrastruktur AI yang lebih luas. Dengan menunjukkan bahwa lapisan MoE dan paralelisme yang dioptimalkan (misalnya, HaiScale DDP) dapat memberikan akurasi penalaran yang sebanding dengan model yang sepenuhnya padat, DeepSeek memaksa penyedia cloud utama—Microsoft Azure, AWS, dan Google Cloud—untuk mengevaluasi pengintegrasian teknik pengoptimalan DeepSeek. Microsoft dan Amazon dilaporkan telah mulai menawarkan DeepSeek-R1 sebagai bagian dari katalog layanan AI mereka, melayani pelanggan yang mencari alternatif berbiaya rendah untuk API GPT-4.1 atau o1.
Lebih jauh lagi, NVIDIA, yang secara historis merupakan pemasok GPU yang dominan, bereaksi terhadap efisiensi yang didorong MoE dengan menekankan perangkat keras khusus (misalnya, GPU yang mendukung HBM3 dan topologi NVLink) untuk mempertahankan keunggulan kompetitifnya. Volatilitas harga saham NVIDIA setelah kenaikannya menggarisbawahi bagaimana terobosan dalam efisiensi algoritmik dapat membentuk kembali prakiraan permintaan perangkat keras. Dengan demikian, bahkan tanpa meluncurkan perangkat keras berpemilik, DeepSeek secara tidak langsung telah memengaruhi peta jalan untuk akselerator AI masa depan.
Apa yang terungkap dari pembaruan R1-0528 terkini tentang komitmen DeepSeek terhadap keterbukaan?
Peningkatan teknis pada R1-0528
Diumumkan pada 28 Mei 2025, pembaruan R1-0528 DeepSeek menjanjikan peningkatan signifikan dalam penalaran matematika, tugas pemrograman, dan mitigasi halusinasi—kesalahan dalam informasi yang dihasilkan AI. Sementara DeepSeek menggambarkan rilis ini sebagai "peningkatan uji coba minor," pembandingan pada LiveCodeBench milik UC Berkeley, MIT, dan Cornell menunjukkan bahwa R1-0528 berkinerja secara kompetitif dengan model o3 dan o4-mini milik OpenAI. Pembaruan ini juga menegaskan kembali kebijakan sumber terbuka yang transparan dengan merilis bobot dan kode inferensi baru pada Hugging Face segera setelah pengumuman, yang memperkuat komitmennya terhadap pengembangan yang digerakkan oleh komunitas dan pengoptimalan kolaboratif.
Penerimaan dan umpan balik masyarakat
Komunitas pengembang telah menanggapi R1-0528 secara positif, dengan menyebutkan tingkat halusinasi yang berkurang dan konsistensi logis yang lebih baik dalam keluaran. Diskusi di forum seperti Hugging Face dan GitHub menunjukkan bahwa para peneliti menghargai peningkatan kinerja yang nyata tanpa mengorbankan kebolehan Lisensi MIT. Namun, beberapa kontributor telah menandai kekhawatiran atas ketidakjelasan data pelatihan dan potensi pengaruh arahan negara dalam penyempurnaan, menekankan bahwa lisensi sumber terbuka saja tidak menjamin transparansi penuh. Dialog-dialog ini menggarisbawahi perlunya keterlibatan komunitas yang berkelanjutan untuk memastikan bahwa etos sumber terbukanya diterjemahkan ke dalam sistem AI yang dapat diaudit dan tepercaya.
Kesimpulan
Upaya DeepSeek dalam AI sumber terbuka telah mendefinisikan ulang ekspektasi untuk aksesibilitas, kinerja, dan efisiensi biaya. Meskipun model R1-nya secara teknis merupakan sumber terbuka di bawah lisensi MIT, tidak adanya data pelatihan lengkap dan transparansi alur kerja mempersulit klasifikasinya sebagai "sepenuhnya" terbuka. Meskipun demikian, pencapaiannya—melatih model penalaran yang kuat di bawah batasan perangkat keras dan membuatnya tersedia secara luas—telah memicu kegembiraan dan pengawasan yang cermat di seluruh komunitas AI global.
Perbandingan dengan GPT-4.1 OpenAI mengungkap lanskap yang bernuansa: DeepSeek unggul dalam tugas penalaran terarah dan pengaturan yang sensitif terhadap biaya, sedangkan jendela konteks GPT-4.1 yang besar dan keunggulan tolok ukur yang luas menjadikannya pilihan untuk aplikasi perusahaan kelas atas. Saat DeepSeek mengembangkan model R2 dan memperluas kolaborasi dengan penyedia cloud, nasibnya akan bergantung pada penanganan masalah privasi data, mengamankan kepatuhan terhadap peraturan, dan berpotensi merangkul transparansi yang lebih besar dalam proses penelitiannya.
Pada akhirnya, kebangkitan DeepSeek menyoroti bahwa AI sumber terbuka bukan lagi sekadar ideal teoritis, tetapi kekuatan praktis yang membentuk kembali persaingan. Dengan menantang para petahana yang sudah mapan, DeepSeek telah mempercepat siklus inovasi, mendorong perusahaan mapan dan pendatang baru untuk memikirkan kembali cara mereka mengembangkan, melisensikan, dan menerapkan sistem AI. Dalam lingkungan yang dinamis ini—di mana GPT-4.1 menetapkan satu tolok ukur dan DeepSeek-R1 menetapkan tolok ukur lain—masa depan AI sumber terbuka tampak lebih menjanjikan dan penuh gejolak daripada sebelumnya.
Mulai
CometAPI menyediakan antarmuka REST terpadu yang menggabungkan ratusan model AI—di bawah titik akhir yang konsisten, dengan manajemen kunci API bawaan, kuota penggunaan, dan dasbor penagihan. Alih-alih mengelola beberapa URL dan kredensial vendor, Anda mengarahkan klien ke URL dasar dan menentukan model target di setiap permintaan.
Pengembang dapat mengakses API DeepSeek seperti DeepSeek-V3 (nama model: deepseek-v3-250324) dan Deepseek R1 (nama model: deepseek-r1-0528) Melalui API KometUntuk memulai, jelajahi kemampuan model di tempat bermain dan konsultasikan Panduan API untuk petunjuk terperinci. Sebelum mengakses, pastikan Anda telah masuk ke CometAPI dan memperoleh kunci API.
Baru mengenal CometAPI? Mulai uji coba gratis $1 dan lepaskan Sora pada tugas terberatmu.
Kami tidak sabar untuk melihat apa yang Anda buat. Jika ada yang terasa tidak beres, tekan tombol umpan balik—memberi tahu kami apa yang rusak adalah cara tercepat untuk memperbaikinya.
