DeepSeek บริษัทสตาร์ทอัพด้าน AI ของจีนเปิดตัวการอัปเดตที่ค่อยเป็นค่อยไปแต่มีผลกระทบต่อโมเดลการใช้เหตุผล R1 เรือธง ซึ่งกำหนดไว้ว่า ดีพซีค R1-0528บนแพลตฟอร์ม Hugging Face เผยแพร่ภายใต้ใบอนุญาต MIT ที่อนุญาต May 28, 2025การอัปเดตนี้สร้างขึ้นจากรุ่น R1 ดั้งเดิมที่เผยแพร่เมื่อเดือนมกราคม 2025 ซึ่งแสดงให้เห็นเป็นครั้งแรกว่าโมเดลภาษาโอเพนซอร์สสามารถแข่งขันกับข้อเสนอที่เป็นกรรมสิทธิ์ได้ทั้งในด้านประสิทธิภาพและความคุ้มทุน แม้ว่าจะมีการอธิบายภายในว่าเป็น "การอัปเกรดการทดลองเล็กน้อย" แต่ R1-0528 ได้รวมการปรับปรุงที่สำคัญในด้านความซับซ้อนของการใช้เหตุผล ความแม่นยำในการสังเคราะห์โค้ด และความน่าเชื่อถือของโมเดล
ไฮไลท์การอัปเดตของ DeepSeek R1
การคิดเชิงบริบทที่ขยายความ
ด้วยการใช้ประโยชน์จากเลเยอร์ส่วนผสมของผู้เชี่ยวชาญ (MoE) และกลไกการใส่ใจที่เหมาะสมที่สุด R1-0528 สามารถรักษาชุดเหตุผลที่ลึกซึ้งกว่าเหนืออินพุตที่ยาวนาน ทำให้เหมาะอย่างยิ่งสำหรับเวิร์กโฟลว์ที่ต้องการการจำบริบทที่ขยายเวลา ()
ความน่าเชื่อถือและความสม่ำเสมอที่ได้รับการปรับปรุง
นักพัฒนาได้รายงานผลลัพธ์ที่เสถียรยิ่งขึ้นจากการตอบกลับซ้ำๆ โดยมีความแตกต่างที่ลดลงในคุณภาพคำตอบ และเกิดข้อผิดพลาดการหมดเวลาน้อยลงเมื่อต้องจัดการกับแบบสอบถามที่ยาวและอุดมไปด้วยบริบท
การใช้เหตุผลขั้นสูง
สถาปัตยกรรมพื้นฐานยังคงอยู่ที่ 671 พันล้านพารามิเตอร์ซึ่งใช้กลไกการให้ความสนใจแบบเดียวกันกับ Deepseek R1 รุ่นเดิม แต่มีน้ำหนักที่ได้รับการปรับปรุงและมีความสามารถในการ "คิด" ที่ยาวนานขึ้น
การประเมินภายในแสดงให้เห็นถึงผลกำไรที่วัดได้จากเกณฑ์มาตรฐานที่ใช้ตรรกะเข้มข้น โดยการอนุมานหลายขั้นตอนที่สอดคล้องกันมากขึ้นในการค้นหาที่ซับซ้อน
การสร้างรหัสที่เหนือกว่า
ผลการประเมินประสิทธิภาพ LiveCodeBench รายงานความก้าวหน้าที่ชัดเจนในการเข้ารหัสด้วยความช่วยเหลือของ AI: R1-0528 อยู่ในอันดับโมเดลที่มีต้นกำเนิดจากจีนสูงสุดสำหรับงานโค้ด โดยตามหลังเพียงการกำหนดค่า o4-mini-high, o3-high และ o4-mini-medium ของ OpenAI เท่านั้น
มีประสิทธิภาพเหนือกว่า Qwen 3 ของ Alibaba และ Claude 3.7 ของ Anthropic ในด้านความแม่นยำและประสิทธิภาพในการเขียนโค้ด
ประสิทธิภาพทางเทคนิค
| เมตริก/เกณฑ์มาตรฐาน | R1-0528 | R1 (ม.ค.2025) | ผู้นำด้านกรรมสิทธิ์ |
|---|---|---|---|
| คะแนนรวม LLM | มัธยฐาน 69.45 | ~ 67.8 | โอเพ่นเอไอ o3/o4-มินิ (~70–72) |
| อันดับการสร้างรหัส | อันดับ 1 ของนางแบบจีน และอันดับ 4 ของโลก | #2 นางแบบจีน | เบื้องหลัง OpenAI o4-mini & o3; นำหน้า Grok 3 mini |
| หน้าต่างบริบท | 163 โทเค็น (≈840 × ต้นฉบับ) | 81 920 โทเค็น | เทียบได้กับ OpenAI o3-high |
| ประสิทธิภาพการอนุมาน | พารามิเตอร์แอ็คทีฟ 37 b / รวม 671 b | เดียวกัน | คล้ายกับโอเพ่นซอร์สขนาดใหญ่อื่น ๆ |
แพลตฟอร์มมาตรฐาน:
ไลฟ์โค้ดเบ็นช์: ตำแหน่ง R1-0528 อยู่ต่ำกว่า o4-mini และ o3 ของ OpenAI เล็กน้อยในงานเขียนโค้ด โดยแซงหน้า Grok 3 mini ของ xAI และ Qwen 3 ของ Alibaba
ข้อมูลรวม LLM แบบผสม (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): ให้ประสิทธิภาพการทำงานเฉลี่ย 69.45วางไว้ในระยะที่สามารถโจมตีข้อเสนอของ Claude และ Gemini ได้ (Analytics Vidhya)

ความทรงจำและบริบท:
หน้าต่างบริบทที่ขยายรองรับฐานโค้ด เอกสารแบบฟอร์มยาว และบทสนทนาหลายรอบโดยสูญเสียความสอดคล้องน้อยที่สุด
การอนุญาตสิทธิ์และการเข้าถึงโอเพ่นซอร์ส
แม้ว่าจะวางจำหน่ายโดยไม่มีการ์ดรุ่นสาธารณะบน Hugging Face แต่ไฟล์กำหนดค่าและน้ำหนัก R1-0528 ยังคงสามารถเข้าถึงได้อย่างสมบูรณ์ภายใต้ ใบอนุญาต MITอนุญาตให้ใช้เชิงพาณิชย์โดยไม่มีข้อจำกัดและปรับเปลี่ยนได้ตามชุมชน การเลือกใช้ใบอนุญาตของ DeepSeek ยังคงดำเนินตามกลยุทธ์การเผยแพร่ "น้ำหนักแบบเปิด" เพื่อให้แน่ใจว่าสถาบันวิจัยและสตาร์ทอัพสามารถบูรณาการโมเดลนี้โดยไม่มีภาระผูกพัน
ผลกระทบต่อตลาดและภูมิทัศน์การแข่งขัน
การเปิดตัว R1 ของ DeepSeek ในเดือนมกราคม 2025 ทำลายสมมติฐานที่เคยมีมาเกี่ยวกับต้นทุนและขนาดที่จำเป็นสำหรับ AI ขั้นสูง ส่งผลให้คู่แข่งในสหรัฐฯ ปรับราคาและนำโมเดลที่เบากว่ามาใช้ (เช่น o3 Mini ของ OpenAI) ด้วย R1-0528 DeepSeek กลับมายืนหยัดในตำแหน่งผู้แข่งขันโอเพ่นซอร์สชั้นนำอีกครั้ง โดยขับเคลื่อนการแข่งขันในด้านประสิทธิภาพและราคาเมื่อเทียบกับ OpenAI, Google Gemini, Alibaba และ Anthropic
อนาคตของ Outlook
นับตั้งแต่เปิดตัวในเดือนมกราคม DeepSeek R1 ได้กระตุ้นให้ผู้เล่น AI รายใหญ่ตอบสนองเชิงกลยุทธ์ โดยเฉพาะอย่างยิ่งการมีอิทธิพลต่อการปรับราคาของ OpenAI และแผนงานของ Google สำหรับโมเดล Gemini คาดว่าการอัปเดต R1-0528 จะทำให้เกิดแรงกดดันในการแข่งขันมากขึ้น โดยเฉพาะในกลุ่มบริษัทที่กำลังมองหาทางเลือกอื่นที่คุ้มต้นทุนแต่มีประสิทธิภาพสูงแทน LLM ที่เป็นกรรมสิทธิ์ ในขณะเดียวกัน หน่วยงานกำกับดูแลของสหรัฐฯ ได้หยิบยกข้อกังวลด้านความมั่นคงของชาติขึ้นมาเกี่ยวกับความก้าวหน้าอย่างรวดเร็วของ DeepSeek ซึ่งเน้นย้ำถึงผลกระทบทางภูมิรัฐศาสตร์ของการแพร่กระจาย AI แบบโอเพนซอร์ส
เริ่มต้นใช้งาน
CometAPI มอบอินเทอร์เฟซ REST แบบรวมที่รวบรวมโมเดล AI หลายร้อยโมเดลภายใต้จุดสิ้นสุดที่สอดคล้องกัน พร้อมด้วยการจัดการคีย์ API ในตัว โควตาการใช้งาน และแดชบอร์ดการเรียกเก็บเงิน แทนที่จะต้องจัดการ URL และข้อมูลรับรองของผู้ขายหลายราย
นักพัฒนาสามารถเข้าถึงข้อมูลล่าสุดได้ API ของ DeepSeek R1 (ชื่อรุ่น: deepseek-r1-0528) ผ่าน โคเมทเอพีไอเริ่มต้นด้วยการสำรวจความสามารถของโมเดลใน สนามเด็กเล่น และปรึกษา คู่มือ API สำหรับคำแนะนำโดยละเอียด ก่อนเข้าใช้งาน โปรดตรวจสอบให้แน่ใจว่าคุณได้เข้าสู่ระบบ CometAPI แล้ว และได้รับรหัส API แล้ว ราคาใน CometAPI:
- อินพุตโทเค็น: $0.44 / M โทเค็น
- โทเค็นเอาต์พุต: $1.752 / M โทเค็น



