Pada Februari 2026, startup AI Tiongkok DeepSeek meluncurkan pembaruan signifikan untuk aplikasi online dan antarmuka webnya, menandai momentum menuju rilis model generasi berikutnya, DeepSeek V4. Meski pembaruan ini hadir sebelum model V4 penuh, pembaruan tersebut sudah memicu perbincangan di kalangan pengguna dan pengamat industri karena perubahan pada perilaku interaksi, kapabilitas konteks panjang, serta pengujian persiapan untuk potensi masa depan.
DeepSeek mencuat di panggung global melalui varian-varian sebelumnya—terutama DeepSeek V3.2 dan DeepSeek–R1—yang menggabungkan kinerja tugas tinggi dengan skalabilitas hemat biaya. Rilis R1 khususnya menarik perhatian internasional pada awal 2025 karena mengguncang pasar global dan menekan kinerja saham para pesaing, menunjukkan potensi disruptif DeepSeek.
Apa yang sebenarnya berubah dalam pembaruan DeepSeek terbaru?
Ini Versi yang Mana dan Apa yang Berubah?
Pembaruan terbaru memengaruhi aplikasi online dan antarmuka web DeepSeek, namun penting dicatat belum mengenai model API. Menurut berbagai sumber:
- Pembaruan aplikasi saat ini paling tepat digambarkan sebagai uji struktur konteks panjang — memungkinkan pengguna web dan aplikasi mengakses dukungan konteks hingga 1 juta token. Ini merupakan loncatan signifikan dari jendela konteks ~128 K pada penawaran API DeepSeek V3.2.
- Peningkatan ini menambah memori efektif untuk satu percakapan atau tugas, memungkinkan model mengingat dan memproses jauh lebih banyak informasi. Laporan menunjukkan ini secara efektif 10× kapasitas memori sebelumnya — terobosan untuk penalaran multi-tahap dan jangka panjang.
- Dari sisi penamaan versi, sebagian besar sinyal publik menyiratkan bahwa pembaruan ini adalah dorongan teknis pra‑V4 — belum merupakan rilis DeepSeek V4 formal, namun kuat sebagai persiapan menuju ke sana.
Di Balik Layar: Apa yang Mendorong Perubahan Ini?
Di balik layar, repositori GitHub DeepSeek mengungkap penambahan berlabel pengenal internal (“MODEL1”), yang menyiratkan arsitektur model baru yang berbeda dari V3.2. Struktur kode menunjukkan teknik optimasi memori, peningkatan dukungan FP8, dan kompatibilitas dengan arsitektur GPU terbaru Nvidia — semua komponen inti yang diharapkan ada di DeepSeek V4.
Selain itu, DeepSeek menerbitkan riset tentang “Engram,” sebuah modul pencarian memori yang menata ulang cara model bahasa besar mengelola konteks panjang dan fakta penting. Engram tampaknya diposisikan sebagai teknologi fondasional untuk generasi berikutnya — kemungkinan menjadi motor di balik kemampuan memori diperluas DeepSeek V4.
Reaksi Pengguna
Peluncuran ini memicu beragam respons:
- Di satu sisi, banyak pengguna antusias dengan perluasan konteks dan potensinya untuk interaksi yang lebih dalam serta pemecahan masalah yang lebih kompleks.
- Di sisi lain, sebagian besar pengguna berkomentar secara publik tentang perubahan nada dan gaya percakapan, menggambarkan respons yang kurang menarik, kurang empatik, atau sekadar “lebih dingin” daripada sebelumnya — memicu diskusi viral di media sosial.
Perbedaan ini menyoroti realitas penting dalam penerapan AI: peningkatan kemampuan teknis dapat membentuk ulang pengalaman pengguna dengan cara yang tak terduga, sehingga memerlukan penyempurnaan iteratif sebelum rilis final.
Apa Fitur Kunci dari Pembaruan Ini?
1. Perluasan Konteks Besar-besaran
Dukungan hingga 1 juta token konteks dalam interaksi web/aplikasi menjadikan DeepSeek salah satu dari sedikit model yang mampu pemahaman global tanpa terpecah terhadap transkrip panjang, basis kode, dokumen hukum, atau seluruh buku dalam satu sesi. Ini berdampak besar untuk penggunaan nyata, mulai dari riset dan penulisan hingga analisis dokumen perusahaan.
2. Perubahan Gaya Interaksi
Peluncuran terbaru ini terlihat mengubah nada percakapan DeepSeek. Banyak pengguna mencatat bahwa interaksi model yang diperbarui tampak lebih netral atau “biasa” — menggunakan pengenal generik seperti “User” alih-alih julukan yang dipersonalisasi serta memberikan respons yang lebih ringkas dalam mode penalaran mendalam. Perubahan gaya ini memicu perbincangan di platform media sosial, dengan sebagian pengguna merasa kurang nyaman atau terkejut.
3. Batas Pengetahuan dan Konteks yang Diperbarui
Basis pengetahuan di balik aplikasi diperbarui hingga Mei 2025, meski layanan API tetap pada V3.2 dengan batas pengetahuan sebelumnya. Perbedaan ini menunjukkan DeepSeek bereksperimen dengan peningkatan inkremental sebelum peningkatan platform V4 penuh.
4. Persiapan untuk Integrasi V4
Satu tujuan strategis yang jelas dari pembaruan ini adalah menguji infrastruktur dan pengalaman pengguna jelang DeepSeek V4 mendatang. Dukungan konteks besar dan perubahan memori kemungkinan berfungsi sebagai uji tekan dunia nyata untuk arsitektur yang tengah dikembangkan — membantu developer menilai kinerja, keandalan, dan umpan balik sebelum penerapan penuh.
Fitur teknis baru apa yang disertakan dalam Pembaruan dan bagaimana cara kerjanya?
Reaksi Pengguna
Peluncuran ini memicu beragam respons:
- Di satu sisi, banyak pengguna antusias dengan perluasan konteks dan potensinya untuk interaksi yang lebih dalam serta pemecahan masalah yang lebih kompleks.
- Di sisi lain, sebagian besar pengguna berkomentar secara publik tentang perubahan nada dan gaya percakapan, menggambarkan respons yang kurang menarik, kurang empatik, atau sekadar “lebih dingin” daripada sebelumnya — memicu diskusi viral di media sosial.
Perbedaan ini menyoroti realitas penting dalam penerapan AI: peningkatan kemampuan teknis dapat membentuk ulang pengalaman pengguna dengan cara yang tak terduga, sehingga memerlukan penyempurnaan iteratif sebelum rilis final.
Engram: memori kondisional untuk pemanggilan selektif
Engram adalah gagasan utama dalam pembaruan ini. Secara konseptual ini adalah mekanisme pengambilan kondisional yang tertanam dalam arsitektur model: ketika masukan mengandung isyarat yang terkait dengan engram yang tersimpan, jaringan mengambil representasi vektor yang telah dihitung sebelumnya untuk melengkapi (atau terkadang menggantikan) lapisan inferensi yang mahal. Manfaat yang diklaim dua hal: mengurangi komputasi berulang pada pengetahuan statis, dan menyediakan mekanisme yang tangguh untuk memperbarui atau menambal memori faktual tanpa melatih ulang seluruh model. Ringkasan teknis dan pratinjau pengembang menunjukkan Engram ditujukan untuk pengetahuan kode (pustaka, tanda tangan fungsi) dan pemanggilan fakta lintas dokumen.
mHC (manifold-constrained hyperconnections)
mHC, seperti disajikan dalam pratinjau dan catatan teknis pendukung, adalah strategi arsitektural yang bertujuan membatasi interaksi parameter pada submanifold yang bermakna. Pembatasan itu mengurangi jumlah aktivasi berpasangan yang harus dihitung, meningkatkan efisiensi komputasi selama pelatihan dan inferensi. Teorinya adalah Anda mempertahankan daya ekspresif di area yang penting (manifold yang relevan dengan tugas) sambil memangkas komputasi yang sia-sia di tempat lain — secara efektif memeras lebih banyak utilitas dari perangkat keras yang sama. Deskripsi awal bersifat teknis dan menjanjikan, tetapi juga menimbulkan pertanyaan implementasi dan verifikasi (lihat di bawah).
DeepSeek Sparse Attention (DSA) dan konteks sejuta token
Salah satu klaim paling nyata adalah dukungan untuk konteks 1M+ token melalui kombinasi teknik atensi jarang (sparse) dan logika pemicu dinamis. Jika terwujud di produksi, ini memungkinkan satu kali inferensi mempertimbangkan seluruh repositori, transkrip panjang, atau patch multi-berkas — dorongan untuk tugas seperti peringkasan basis kode, refaktor multi-berkas, dan agen percakapan jangka panjang. Materi pratinjau dan tolok ukur vendor melaporkan throughput konteks besar dan menyiratkan peningkatan efisiensi yang signifikan dibanding beberapa pesaing. Verifikasi independen masih terbatas pada tahap ini.
Apa yang bisa kita harapkan berikutnya — dan apa yang diceritakan pembaruan ini tentang DeepSeek v4?
Jawaban singkat: pembaruan publik ini sekaligus peningkatan fungsional dan landasan untuk peluncuran yang lebih besar. Laporan industri dan lini masa DeepSeek sendiri mengarah pada peluncuran v4 yang segera (ditargetkan untuk jendela Tahun Baru Imlek) yang kemungkinan akan memaketkan memori konteks panjang, arsitektur memori khusus ala Engram, serta kemampuan pengkodean dan agen yang ditingkatkan.
Di bawah ini adalah spekulasi yang hati-hati dan berbasis bukti tentang apa yang kemungkinan akan disertakan DeepSeek v4 — didasarkan pada sinyal perubahan saat ini dan ekspektasi industri.
Ekspektasi 1 — Memori jangka panjang native dan pengambilan terindeks
Mengingat eksperimen sejuta token di aplikasi dan fokus eksplisit pada agen di V3.2, v4 kemungkinan akan memformalkan subsistem memori yang mempertahankan pengetahuan terindeks lintas sesi (bukan sekadar konteks sementara yang lebih besar). Subsistem itu akan menggabungkan:
- Pengambilan padat atas embedding yang disimpan.
- Pemotongan (chunking) efisien untuk menyeimbangkan latensi dan biaya token.
- Lapisan koherensi untuk menjahit fragmen yang diambil ke dalam jendela konteks internal model.
Jika diterapkan, itu akan memungkinkan agen mempertahankan kepribadian persisten, preferensi pengguna, dan riwayat proyek yang kaya tanpa mengasup ulang data setiap sesi.
Ekspektasi 2 — Generasi kode yang terspesialisasi dan penalaran multi-berkas
Keunggulan pengkodean menjadi prioritas untuk v4, mengisyaratkan optimasi model dan peningkatan tolok ukur yang menargetkan alur kerja pengembang. Harapkan kemampuan refaktor multi-berkas native, sintesis unit test yang lebih baik, dan generasi kode yang sadar alat yang dapat menjalankan, mengevaluasi, dan mengiterasi kode melalui rangkaian alat terisolasi (sandboxed). Inilah tepatnya jenis tugas yang dibuka oleh model berkonteks panjang.
Ekspektasi 3 — Penekanan lebih besar pada keamanan dan verifikasi agen
Mengingat sorotan publik tentang praktik pelatihan, DeepSeek kemungkinan akan memprioritaskan auditabilitas: log pelatihan yang dapat direproduksi, pernyataan asal-usul yang lebih jelas, dan mitigasi keamanan yang diperkuat yang menandai halusinasi atau celah asal-usul selama interaksi alat multi-langkah. Harapkan fitur produk yang membuat asal-usul terlihat oleh pelanggan perusahaan dan peneliti.
Ekspektasi 4 — Peta jalan kompetitif dan ekosistem mitra
Peta jalan v4 akan dibaca sebagai sinyal pasar oleh pemain domestik dan global. Dengan para rival meluncurkan pembaruan agresif (dari pemain besar yang menargetkan efisiensi dan penerapan seluler hingga pemain niche yang menggandakan model open-source), DeepSeek harus menyeimbangkan keterbukaan dan kemampuan bertahan. Jika v4 menghadirkan peningkatan signifikan dengan biaya lebih rendah, ini akan mempercepat tren menuju model yang terjangkau dan berkemampuan tinggi di Tiongkok dan seterusnya — dan kemungkinan memperkuat pengawasan kebijakan lintas batas.
Kesimpulan: Kekuatan AI yang Bertumbuh
Pembaruan DeepSeek terbaru menandai langkah bermakna menuju transformasi yang lebih luas dalam kecerdasan AI. Meskipun perusahaan belum sepenuhnya meluncurkan V4, peningkatan pratinjau — terutama terkait panjang konteks dan restrukturisasi interaktif — menunjukkan komitmen untuk mendorong kemampuan LLM ke depan. Dengan V4 di cakrawala, DeepSeek siap menjadi figur sentral dalam membentuk era berikutnya AI berskala besar, hemat biaya, dan berkinerja tinggi.
Developers can access Deepseek API via CometAPI now.To begin, explore the model’s capabilities in the Playground and consult the API guide for detailed instructions. Before accessing, please make sure you have logged in to CometAPI and obtained the API key. CometAPI offer a price far lower than the official price to help you integrate.
Siap Melangkah?→ Daftar Deepseek hari ini !
Jika Anda ingin mengetahui lebih banyak tips, panduan, dan berita tentang AI, ikuti kami di VK, X dan Discord!
