Kemas Kini DeepSeek: apa yang berubah, apa yang baharu, dan mengapa ia penting

CometAPI
AnnaFeb 15, 2026
Kemas Kini DeepSeek: apa yang berubah, apa yang baharu, dan mengapa ia penting

Pada Februari 2026, syarikat pemula AI dari China, DeepSeek, melancarkan kemas kini penting untuk aplikasi dalam talian dan antaramuka webnya, menandakan momentum ke arah pelancaran model generasi seterusnya, DeepSeek V4. Walaupun kemas kini ini hadir sebelum model V4 penuh, ia sudah pun mencetuskan perbincangan dalam kalangan pengguna dan pemerhati industri kerana perubahan pada tingkah laku interaksi, keupayaan konteks panjang, serta ujian persediaan untuk potensi masa depan.

DeepSeek menyerlah di pentas global dengan varian terdahulunya — terutamanya DeepSeek V3.2 dan DeepSeek–R1 — yang menggabungkan prestasi tugas tinggi dengan kebolehskalaan yang kos efektif. Pelancaran R1 khususnya menarik perhatian antarabangsa pada awal 2025 kerana menggoncang pasaran global dan menekan prestasi saham pesaing, menggambarkan potensi gangguan oleh DeepSeek.

Apa sebenarnya yang berubah dalam kemas kini DeepSeek baru-baru ini?

Versi yang manakah ini dan apakah yang berubah?

Kemas kini terbaru menjejaskan aplikasi dalam talian dan antaramuka web DeepSeek, tetapi yang penting, belum menjejaskan model API. Menurut pelbagai sumber:

  • Kemas kini aplikasi semasa paling tepat digambarkan sebagai ujian struktur konteks panjang — membolehkan pengguna web dan aplikasi mengakses sokongan konteks sehingga 1 juta token. Ini merupakan lonjakan ketara daripada tetingkap konteks ~128 K dalam penawaran API DeepSeek V3.2.
  • Peningkatan ini menambah memori berkesan bagi satu perbualan atau tugas, membolehkan model mengingati dan memproses jauh lebih banyak maklumat. Laporan menunjukkan ini secara efektif 10× kapasiti memori sebelumnya — satu kejayaan untuk penaakulan berbilang peringkat dan jangka panjang.
  • Dari segi penamaan versi, kebanyakan isyarat awam mencadangkan kemas kini ini ialah dorongan teknikal pra-V4 — belum lagi pelancaran rasmi DeepSeek V4, tetapi sangat bersifat persediaan ke arahnya.

Di Sebalik Tabir: Apa yang Mendorong Perubahan ini?

Di sebalik tabir, repositori GitHub DeepSeek mendedahkan penambahan berlabel pengecam dalaman (“MODEL1”), yang mencadangkan seni bina model baharu yang berbeza daripada V3.2. Struktur kod menunjukkan teknik pengoptimuman memori, penambahbaikan sokongan FP8, dan keserasian dengan seni bina GPU Nvidia yang lebih baharu — semua komponen teras yang dijangka dalam DeepSeek V4.

Selain itu, DeepSeek telah menerbitkan penyelidikan tentang “Engram,” iaitu modul carian ingatan yang menilai semula cara model bahasa besar mengurus konteks panjang dan fakta kritikal. Engram kelihatan ditempatkan sebagai teknologi asas untuk generasi seterusnya — berkemungkinan memacu keupayaan ingatan lanjutan DeepSeek V4.

Reaksi Pengguna

Pengeluaran ini telah mencetuskan pelbagai reaksi:

  • Di satu pihak, ramai pengguna teruja tentang pengembangan konteks dan potensinya untuk interaksi yang lebih mendalam serta penyelesaian masalah yang lebih kompleks.
  • Di pihak lain, sebahagian besar pengguna telah mengulas secara terbuka tentang perubahan pada nada dan gaya perbualan, menggambarkan respons sebagai kurang menarik, kurang empatik, atau sekadar “lebih dingin” berbanding sebelum ini — membawa kepada perbincangan tular di media sosial.

Perbezaan ini menyerlahkan realiti penting dalam pengeluaran AI: peningkatan keupayaan teknikal boleh membentuk semula pengalaman pengguna dengan cara yang tidak dijangka, memerlukan penambahbaikan berulang sebelum pelancaran akhir.

Apakah Ciri Utama Kemas Kini Ini?

1. Pengembangan Konteks Berskala Besar

Menyokong sehingga 1 juta token konteks dalam interaksi web/aplikasi menjadikan DeepSeek antara segelintir model yang mampu memberikan pemahaman global tanpa terputus-putus terhadap transkrip panjang, pangkalan kod, dokumen undang-undang, atau keseluruhan buku dalam satu sesi. Ini mempunyai implikasi besar untuk penggunaan dunia sebenar, daripada penyelidikan dan penulisan hingga analisis dokumen perusahaan.

2. Perubahan Gaya Interaksi

Pengeluaran terbaru ini nyata mengubah nada perbualan DeepSeek. Ramai pengguna menyatakan bahawa interaksi model yang dikemas kini kelihatan lebih neutral atau “ringkas” — menggunakan pengecam umum seperti “User” bukannya gelaran peribadi serta memberikan respons yang lebih padat dalam mod penaakulan mendalam. Perubahan gaya ini telah mencetuskan perbualan di platform media sosial, dengan sebahagian pengguna menyuarakan rasa tidak selesa atau terkejut.

3. Tarikh Putus Pengetahuan dan Konteks Dikemas Kini

Pangkalan pengetahuan di sebalik aplikasi telah dikemas kini untuk mencerminkan maklumat sehingga Mei 2025, walaupun perkhidmatan API kekal pada V3.2 dengan tarikh putus pengetahuan sebelumnya. Pemisahan ini mencadangkan DeepSeek sedang bereksperimen dengan penambahbaikan beransur-ansur sebelum peningkatan penuh platform V4.

4. Persiapan untuk Integrasi V4

Salah satu matlamat strategik yang jelas bagi kemas kini ini ialah menguji infrastruktur dan pengalaman pengguna sebelum DeepSeek V4 yang akan datang. Sokongan konteks besar dan perubahan memori berkemungkinan menjadi ujian tekanan dunia sebenar untuk seni bina yang sedang dibangunkan — membantu pembangun menilai prestasi, kebolehpercayaan, dan maklum balas sebelum pelaksanaan penuh.

Apakah ciri teknikal baharu yang disertakan dalam kemas kini dan bagaimana ia berfungsi?

Reaksi Pengguna

Pengeluaran ini telah mencetuskan pelbagai reaksi:

  • Di satu pihak, ramai pengguna teruja tentang pengembangan konteks dan potensinya untuk interaksi yang lebih mendalam serta penyelesaian masalah yang lebih kompleks.
  • Di pihak lain, sebahagian besar pengguna telah mengulas secara terbuka tentang perubahan pada nada dan gaya perbualan, menggambarkan respons sebagai kurang menarik, kurang empatik, atau sekadar “lebih dingin” berbanding sebelum ini — membawa kepada perbincangan tular di media sosial.

Perbezaan ini menyerlahkan realiti penting dalam pengeluaran AI: peningkatan keupayaan teknikal boleh membentuk semula pengalaman pengguna dengan cara yang tidak dijangka, memerlukan penambahbaikan berulang sebelum pelancaran akhir.

Engram: ingatan bersyarat untuk ingatan semula terpilih

Engram ialah idea utama dalam kemas kini ini. Secara konseptual ia merupakan mekanisme pengambilan bersyarat yang terbenam dalam seni bina model: apabila input mengandungi petunjuk yang berkaitan dengan engram tersimpan, rangkaian mendapatkan semula perwakilan vektor yang telah dipra-kira untuk melengkapi (atau kadangkala menggantikan) lapisan inferens yang mahal. Manfaat yang didakwa adalah dua kali ganda: mengurangkan pengiraan berulang pada pengetahuan statik, dan menyediakan mekanisme teguh untuk mengemas kini atau menampal ingatan faktual tanpa melatih semula keseluruhan model. Ringkasan teknikal dan pratonton pembangun menunjukkan Engram ditujukan untuk pengetahuan kod (perpustakaan, tandatangan fungsi) dan ingatan semula fakta merentasi dokumen.

mHC (hipersambungan terhad manifold)

mHC, seperti yang dibentangkan dalam pratonton dan nota teknikal sokongan, ialah strategi seni bina yang bertujuan mengehadkan interaksi parameter kepada submanifold yang bermakna. Kekangan itu mengurangkan bilangan pengaktifan berpasangan yang perlu dikira, sekali gus meningkatkan kecekapan pengiraan semasa latihan dan inferens. Teorinya ialah anda mengekalkan kuasa ekspresif di tempat yang penting (manifold yang berkaitan dengan tugas) sambil mengurangkan pengiraan yang membazir di tempat lain — secara efektif memerah lebih banyak utiliti daripada perkakasan yang sama. Penerangan awal bersifat teknikal dan menjanjikan, namun ia juga menimbulkan persoalan pelaksanaan dan pengesahan (lihat di bawah).

DeepSeek Sparse Attention (DSA) dan konteks sejuta token

Salah satu tuntutan paling nyata ialah sokongan untuk konteks 1M+ token melalui gabungan teknik perhatian jarang (sparse attention) dan logik pencetus dinamik. Jika direalisasikan dalam produksi, ini membolehkan satu laluan inferens mempertimbangkan keseluruhan repositori, transkrip panjang, atau tampalan berbilang fail — satu lonjakan untuk tugas seperti pemeringkasan pangkalan kod, pemfaktoran semula berbilang fail, dan ejen perbualan panjang. Bahan pratonton dan penanda aras vendor melaporkan kadar pemprosesan konteks besar dan mencadangkan peningkatan kecekapan yang ketara berbanding sesetengah pesaing. Pengesahan bebas masih terhad pada peringkat ini.

Apa yang boleh kita jangkakan seterusnya — dan apakah yang diberitahu kemas kini ini tentang DeepSeek v4?

Jawapan ringkas: kemas kini awam ini ialah peningkatan fungsi dan juga landasan untuk pelancaran yang lebih besar. Laporan industri dan garis masa DeepSeek sendiri menunjukkan pelancaran v4 yang bakal tiba (disasarkan sekitar musim Tahun Baru Lunar) yang berkemungkinan memadukan ingatan konteks panjang, seni bina ingatan khusus seakan Engram, serta keupayaan pengkodan dan ejen yang dipertingkat.

Di bawah ialah spekulasi berhati-hati berasaskan bukti tentang perkara yang mungkin disertakan dalam DeepSeek v4 — berteraskan isyarat perubahan semasa dan jangkaan industri.

Jangkaan 1 — Ingatan jangka panjang asli dan pengambilan berindeks

Memandangkan eksperimen sejuta token aplikasi dan tumpuan jelas pada ejen dalam V3.2, v4 berkemungkinan memformalkan subsistem ingatan yang mengekalkan pengetahuan berindeks merentas sesi (bukan sekadar konteks sementara yang lebih besar). Subsistem itu akan menggabungkan:

  • Pengambilan padat ke atas embedding yang disimpan.
  • Chunking yang cekap untuk mengimbangi latensi dan kos token.
  • Lapisan koherens untuk menjahit serpihan yang diambil ke dalam tetingkap konteks dalaman model.

Jika dilaksanakan, itu akan membolehkan ejen mengekalkan personaliti berterusan, keutamaan pengguna, dan sejarah projek yang kaya tanpa memasukkan semula data setiap sesi.

Jangkaan 2 — Penjanaan kod khusus dan penaakulan berbilang fail

Kehebatan pengkodan dijangka menjadi keutamaan untuk v4, menandakan pengoptimuman model dan penambahbaikan penanda aras yang menyasarkan aliran kerja pembangun. Jangkakan keupayaan pemfaktoran semula berbilang fail asli, sintesis ujian unit yang dipertingkat, dan penjanaan kod peka alat yang boleh menjalankan, menilai, dan mengiterasi kod melalui rantaian alat ber-sandbox. Inilah tepatnya jenis tugas yang dibolehkan oleh model berkonteks panjang.

Jangkaan 3 — Penekanan lebih besar pada keselamatan ejen dan pengesahan

Memandangkan penelitian awam tentang amalan latihan, DeepSeek berkemungkinan mengutamakan kebolehaudit: log latihan yang boleh dihasilkan semula, pernyataan asal-usul yang lebih jelas, dan langkah mitigasi keselamatan yang diperkukuh untuk menandakan halusinasi atau jurang asal-usul semasa interaksi alat berbilang langkah. Jangkakan ciri produk yang menjadikan asal-usul dapat dilihat oleh pelanggan perusahaan dan penyelidik.

Jangkaan 4 — Peta jalan kompetitif dan ekosistem rakan kongsi

Peta jalan v4 akan dibaca sebagai isyarat pasaran oleh pemain domestik dan global. Dengan pesaing menghantar kemas kini agresif (daripada pemain utama yang menyasarkan kecekapan dan pengedaran mudah alih kepada pemain khusus yang menggandakan pertaruhan pada model sumber terbuka), DeepSeek mesti mengimbangi keterbukaan dan kebolehpertahanan. Jika v4 memberikan peningkatan ketara pada kos yang lebih rendah, ia akan mempercepatkan trend ke arah model berkeupayaan tinggi yang mampu milik di China dan seterusnya — dan berkemungkinan memperhebat penelitian dasar rentas sempadan.

Kesimpulan: Kuasa AI yang Kian Berkembang

Kemas kini DeepSeek baru-baru ini menandakan langkah bermakna ke arah transformasi lebih luas dalam kecerdasan AI. Walaupun syarikat belum melancarkan V4 sepenuhnya, penambahbaikan pratonton — khususnya sekitar panjang konteks dan penstrukturan semula interaktif — mendedahkan komitmen untuk memacu keupayaan LLM ke hadapan. Dengan V4 di ambang, DeepSeek berada pada kedudukan untuk menjadi tokoh utama dalam membentuk era seterusnya AI berskala besar, kos efisien dan berprestasi tinggi.

Para pembangun boleh mengakses Deepseek API melalui CometAPI sekarang. Untuk bermula, terokai keupayaan model dalam Playground dan rujuk panduan API untuk arahan terperinci. Sebelum mengakses, pastikan anda telah log masuk ke CometAPI dan memperoleh kunci API. CometAPI menawarkan harga yang jauh lebih rendah daripada harga rasmi untuk membantu anda melakukan integrasi.

Sedia untuk bermula?→ Daftar Deepseek hari ini !

Jika anda mahu mengetahui lebih banyak tip, panduan dan berita tentang AI, ikuti kami di VK, X dan Discord!

Baca Lagi

500+ Model dalam Satu API

Sehingga 20% Diskaun