DeepSeek-V3.2

DeepSeek
deepseek-v3.2
อินพุต:$0.22/M
เอาต์พุต:$0.35/M
บริบท:128K
เอาต์พุตสูงสุด:4K
DeepSeek v3.2 เป็นรุ่นสำหรับการใช้งานจริงล่าสุดในตระกูล DeepSeek V3: ตระกูลโมเดลภาษาแบบเปิดน้ำหนักขนาดใหญ่ที่เน้นการให้เหตุผลเป็นอันดับแรก ออกแบบมาสำหรับการทำความเข้าใจบริบทยาว การใช้งานเอเจนต์/เครื่องมือที่เชื่อถือได้ การให้เหตุผลขั้นสูง การเขียนโค้ด และคณิตศาสตร์.

DeepSeek v3.2 คืออะไร?

DeepSeek v3.2 เป็นรุ่นพร้อมใช้งานล่าสุดในตระกูล DeepSeek V3: ตระกูลโมเดลภาษาขนาดใหญ่แบบ open-weight ที่เน้นการให้เหตุผลเป็นอันดับแรก ออกแบบมาเพื่อการทำความเข้าใจบริบทยาว การใช้เอเจนต์/เครื่องมือที่ทนทาน การให้เหตุผลขั้นสูง การเขียนโค้ด และคณิตศาสตร์ รุ่นนี้รวมหลายเวอร์ชัน (V3.2 สำหรับงานผลิตจริง และ V3.2-Speciale ประสิทธิภาพสูง) โครงการนี้เน้นการทำอนุมานบริบทยาวอย่างคุ้มค่า ด้วยกลไก sparse attention แบบใหม่ชื่อ DeepSeek Sparse Attention (DSA) และเอเจนต์/เวิร์กโฟลว์ “การคิด” (“Thinking in Tool-Use”)

คุณสมบัติหลัก (ภาพรวมระดับสูง)

  • DeepSeek Sparse Attention (DSA): กลไก sparse-attention ที่มีจุดมุ่งหมายเพื่อลดการใช้ทรัพยากรคำนวณอย่างมากในสถานการณ์บริบทยาว โดยยังคงความสามารถในการให้เหตุผลระยะไกล (ข้ออ้างอิงงานวิจัยหลัก; ใช้ใน V3.2-Exp.)
  • Agentic thinking + การผสานการใช้เครื่องมือ: V3.2 เน้นการฝัง “การคิด” เข้าในการใช้เครื่องมือ: โมเดลสามารถทำงานในโหมดให้เหตุผล-คิด และโหมดไม่คิด (ปกติ) ขณะเรียกใช้เครื่องมือ ช่วยปรับปรุงการตัดสินใจในงานหลายขั้นตอนและการออร์เคสเตรชันของเครื่องมือ
  • ไปป์ไลน์สังเคราะห์ข้อมูลเอเจนต์ขนาดใหญ่: DeepSeek รายงานคลังข้อมูลฝึกและไปป์ไลน์สังเคราะห์เอเจนต์ที่ครอบคลุมสิ่งแวดล้อมนับพันและคำสั่งซับซ้อนนับหมื่นรายการ เพื่อเพิ่มความทนทานสำหรับงานเชิงโต้ตอบ
  • DeepSeek Sparse Attention (DSA): DSA เป็นวิธีการ sparse attention แบบละเอียดที่ถูกแนะนำในสายผลิตภัณฑ์ V3.2 (ครั้งแรกใน V3.2-Exp) ช่วยลดความซับซ้อนของ attention (จากแบบง่าย O(L²) เป็นสไตล์ O(L·k) โดย k ≪ L) โดยเลือกชุดโทเค็น key/value ที่น้อยกว่าต่อโทเค็น query ส่งผลให้การใช้หน่วยความจำ/การคำนวณลดลงอย่างมากสำหรับบริบทยาวมาก (128K) ทำให้การอนุมานบริบทยาวมีต้นทุนต่ำลงอย่างมีนัยสำคัญ
  • สถาปัตยกรรมหลักแบบ Mixture-of-Experts (MoE) และ Multi-head Latent Attention (MLA): ตระกูล V3 ใช้ MoE เพื่อเพิ่มขีดความสามารถอย่างมีประสิทธิภาพ (จำนวนพารามิเตอร์เชิงนามธรรมขนาดใหญ่ แต่เปิดใช้งานต่อโทเค็นจำกัด) ควบคู่กับวิธี MLA เพื่อรักษาคุณภาพและควบคุมต้นทุนการคำนวณ

ข้อมูลจำเพาะทางเทคนิค (สรุปย่อ)

  • ช่วงจำนวนพารามิเตอร์โดยประมาณ: ~671B – 685B (ขึ้นอยู่กับเวอร์ชัน)
  • หน้าต่างบริบท (อ้างอิงจากเอกสาร): 128,000 โทเค็น (128K) ใน vLLM/reference configs
  • Attention: DeepSeek Sparse Attention (DSA) + MLA; ลดความซับซ้อนของ attention สำหรับบริบทยาว
  • ความแม่นยำเชิงตัวเลขและการฝึก: BF16 / F32 และรูปแบบควอนไทซ์แบบบีบอัด (F8_E4M3 เป็นต้น) สำหรับการแจกจ่าย
  • ตระกูลสถาปัตยกรรม: โครงหลัก MoE (mixture-of-experts) พร้อมการเปิดใช้งานต่อโทเค็นอย่างประหยัด
  • อินพุต / เอาต์พุต: อินพุตข้อความที่ทำการโทเค็นมาตรฐาน (รองรับรูปแบบแชท/ข้อความ); รองรับการเรียกใช้เครื่องมือ (primitive ของ API สำหรับการใช้เครื่องมือ) และทั้งการเรียกแบบแชทโต้ตอบและการสร้างผลลัพธ์แบบโปรแกรมผ่าน API
  • ตัวเลือกเวอร์ชันที่มีให้: v3.2, v3.2-Exp (ทดลอง เปิดตัว DSA), v3.2-Speciale (เน้นการให้เหตุผล เป็นแบบ API-only ชั่วคราว)

ผลการทดสอบเชิงมาตรฐาน

รุ่นประสิทธิภาพสูง V3.2-Speciale ทำได้ใกล้เคียงหรือเหนือกว่ารุ่นระดับบนร่วมสมัยบนชุดทดสอบการให้เหตุผล/คณิต/โค้ดหลายรายการ และได้คะแนนระดับแนวหน้าบนชุดปัญหาคณิตศาสตร์ระดับสูงบางชุด เอกสารพรีพริ้นต์เน้นความใกล้เคียงกับโมเดลอย่าง GPT-5 / Kimi K2 บนชุดทดสอบการให้เหตุผลที่เลือก รวมถึงการปรับปรุงเมื่อเทียบกับฐาน DeepSeek R1/V3 รุ่นก่อนหน้า:

  • AIME: ปรับปรุงจาก 70.0 เป็น 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Aider: 57.0 → 71.6 (Δ +14.6).

การเปรียบเทียบกับโมเดลอื่น (ภาพรวมระดับสูง)

  • เทียบกับ GPT-5 / Gemini 3 Pro (อ้างอิงสาธารณะ): ผู้เขียน DeepSeek และสื่อหลายแห่งอ้างถึงความใกล้เคียงหรือเหนือกว่าในงานให้เหตุผลและเขียนโค้ดที่เลือกสำหรับรุ่น Speciale โดยเน้นความคุ้มค่าและการให้สิทธิ์แบบเปิดเป็นจุดต่าง
  • เทียบกับโมเดลเปิด (Olmo, Nemotron, Moonshot ฯลฯ): DeepSeek เน้นการฝึกแบบ agentic และ DSA เป็นจุดต่างสำคัญสำหรับประสิทธิภาพบริบทยาว

กรณีการใช้งานที่เป็นตัวแทน

  • ระบบ agentic / การออร์เคสเตรชัน: เอเจนต์หลายเครื่องมือ (API, ตัวดึงข้อมูลเว็บ, คอนเน็กเตอร์รันโค้ด) ที่ได้ประโยชน์จาก “การคิด” ระดับโมเดล + primitive ของการเรียกใช้เครื่องมือแบบชัดเจน
  • การให้เหตุผล/วิเคราะห์เอกสารยาว: เอกสารกฎหมาย คลังงานวิจัยขนาดใหญ่ บันทึกการประชุม — เวอร์ชันบริบทยาว (128k โทเค็น) ช่วยให้คงบริบทขนาดใหญ่มากไว้ได้ในคำขอเดียว
  • ช่วยงานคณิตซับซ้อนและการเขียนโค้ด: V3.2-Speciale ได้รับการโปรโมตสำหรับการให้เหตุผลทางคณิตขั้นสูงและงานดีบั๊กโค้ดขนาดใหญ่ตามเกณฑ์ชี้วัดของผู้พัฒนา
  • การปรับใช้งานผลิตที่อ่อนไหวต่อค่าใช้จ่าย: DSA + การปรับราคา มุ่งลดต้นทุนการอนุมานสำหรับงานที่มีบริบทสูง

วิธีเริ่มต้นใช้งาน DeepSeek v3.2 API

ราคา API ของ DeepSeek v3.2 บน CometAPI ลด 20% จากราคาทางการ:

โทเค็นอินพุต$0.22
โทเค็นเอาต์พุต$0.35

ขั้นตอนที่จำเป็น

  • เข้าสู่ระบบที่ cometapi.com. หากคุณยังไม่เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน
  • รับคีย์ API สำหรับเข้าถึงอินเทอร์เฟซ คลิก “Add Token” ที่ส่วน API token ในศูนย์ส่วนบุคคล รับคีย์โทเค็น: sk-xxxxx แล้วส่ง
  • รับ URL ของไซต์นี้: https://api.cometapi.com/

วิธีใช้งาน

  1. เลือกปลายทาง “deepseek-v3.2” เพื่อส่งคำขอ API และกำหนด request body วิธีการและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบผ่าน Apifox เพื่อความสะดวก
  2. แทนที่ <YOUR_API_KEY> ด้วยคีย์ CometAPI จริงจากบัญชีของคุณ
  3. เลือกรูปแบบ Chat: ใส่คำถามหรือคำขอของคุณในช่อง content—โมเดลจะตอบสนองต่อสิ่งนี้
  4. ประมวลผลการตอบกลับจาก API เพื่อรับคำตอบที่สร้างขึ้น

โมเดลเพิ่มเติม