DeepSeek V3.2 في سلسلة DeepSeek V3: عائلة كبيرة من نماذج اللغة "الاستدلال أولاً" مُحسّنة لاستخدام الأدوات الوكيلة، والاستدلال في السياق الطويل، والنشر الفعال من حيث التكلفة.
ما هو DeepSeek v3.2؟
برنامج DeepSeek الإصدار 3.2 هو أحدث إصدار إنتاجي في DeepSeek V3 العائلة: عائلة كبيرة من نماذج اللغة مفتوحة الوزن، تركز على المنطق أولاً، ومصممة لـ فهم السياق الطويل، واستخدام قوي للوكيل/الأداة، والتفكير المتقدم، والترميز والرياضياتيتضمن الإصدار إصدارات متعددة (إصدار الإنتاج V3.2 وإصدار V3.2-Speciale عالي الأداء). يركز المشروع على الاستدلال طويل السياق الموفر للتكلفة من خلال آلية جديدة للانتباه المتناثر تُسمى الاهتمام المتفرق DeepSeek (DSA) والوكلاء/سير العمل "التفكيري" ("التفكير في استخدام الأدوات").
الميزات الرئيسية (المستوى العالي)
- DeepSeek Sparse Attention (DSA): آلية انتباه متفرق تهدف إلى تقليل الحوسبة بشكل كبير في سيناريوهات السياق الطويل مع الحفاظ على التفكير بعيد المدى. (ادعاء البحث الأساسي؛ المستخدم في
V3.2-Exp.) - التفكير الوكيل + تكامل استخدام الأدوات: يؤكد الإصدار V3.2 على تضمين "التفكير" في استخدام الأدوات: يمكن للنموذج العمل في أوضاع التفكير المنطقي وفي أوضاع عدم التفكير (العادية) عند استدعاء الأدوات، مما يؤدي إلى تحسين عملية اتخاذ القرار في المهام متعددة الخطوات وتنسيق الأدوات.
- خط أنابيب تجميع بيانات الوكيل على نطاق واسع: يقدم DeepSeek تقريرًا عن مجموعة تدريب وخط أنابيب تجميع الوكلاء يمتد عبر آلاف البيئات وعشرات الآلاف من التعليمات المعقدة لتحسين المتانة للمهام التفاعلية.
- **الاهتمام المتفرق DeepSeek (DSA)**DSA هي طريقة دقيقة لانتباه متفرق، طُرِحت في الإصدار 3.2 (أولاً في الإصدار 3.2-Exp)، تُقلل من تعقيد الانتباه (من نمط O(L²) البسيط إلى نمط O(L·k) مع k ≪ L)، باختيار مجموعة أصغر من رموز المفتاح/القيمة لكل رمز استعلام. والنتيجة هي استهلاك أقل بكثير للذاكرة/الحوسبة للسياقات الطويلة جدًا (128 كيلو بايت)، مما يجعل استدلال السياقات الطويلة أرخص بكثير.
- العمود الفقري لمزيج الخبراء (MoE) والانتباه الكامن متعدد الرؤوس (MLA):تستخدم عائلة V3 تقنية MoE لزيادة السعة بكفاءة (عدد كبير من المعلمات الاسمية مع تنشيط محدود لكل رمز) إلى جانب أساليب MLA للحفاظ على الجودة والتحكم في الحوسبة.
المواصفات الفنية (جدول موجز)
- نطاق المعلمة الاسمية: ~671 ب - 685 ب (يعتمد على المتغير).
- نافذة السياق (مرجع موثق): الرموز 128,000 (128 كيلو بايت) في تكوينات vLLM/المرجعية.
- انتباه: DeepSeek Sparse Attention (DSA) + MLA؛ تعقيد انتباه منخفض للسياقات الطويلة.
- الدقة الرقمية والتدريبية: BF16 / F32 والتنسيقات المضغوطة الكمية (F8_E4M3 وما إلى ذلك) متاحة للتوزيع.
- العائلة المعمارية: العمود الفقري لمزيج الخبراء (MoE) مع اقتصاد التنشيط لكل رمز.
- الإدخال / الإخراج: إدخال نص مميز قياسي (تنسيقات الدردشة/الرسائل مدعومة)؛ يدعم استدعاءات الأدوات (بدائيات واجهة برمجة التطبيقات لاستخدام الأدوات) واستدعاءات الدردشة التفاعلية والإكمالات البرمجية عبر واجهة برمجة التطبيقات.
- المتغيرات المقدمة:
v3.2,v3.2-Exp(تجريبية، أول ظهور لـ DSA)،v3.2-Speciale(التفكير أولاً، واجهة برمجة التطبيقات فقط، على المدى القصير).
أداء المعيار
الحوسبة العالية V3.2-Speciale يحقق التكافؤ أو يتجاوز النماذج المتطورة المعاصرة في عدة معايير استدلال/رياضيات/ترميز، ويحقق أعلى الدرجات في مجموعات مختارة من مسائل الرياضيات المتميزة. تُبرز النسخة الأولية التكافؤ مع نماذج مثل GPT-5 / Kimi K2 في معايير استدلال مختارة، وتحسينات محددة مقارنةً بخطوط الأساس السابقة لـ DeepSeek R1/V3.
- الهدف: تم تحسينه من 70.0 إلى 87.5 (Δ +17.5).
- هيئة ضمان جودة التعليم العام: 71.5 → 81.0 (Δ +9.5).
- LCB_v6: 63.5 → 73.3 (Δ +9.8).
- مساعد: 57.0 → 71.6 (Δ +14.6).
مقارنة مع نماذج أخرى (مستوى عال)
- مقابل GPT-5 / Gemini 3 Pro (ادعاءات عامة): يزعم مؤلفو DeepSeek والعديد من المنافذ الصحفية التكافؤ أو التفوق في مهام التفكير والترميز المحددة لمتغير Speciale، مع التأكيد على كفاءة التكلفة والترخيص المفتوح كعوامل تمييزية.
- مقابل النماذج المفتوحة (Olmo، Nemotron، Moonshot، وما إلى ذلك): تسلط شركة DeepSeek الضوء على التدريب الوكيل وDSA باعتبارهما عوامل تمييز رئيسية للكفاءة في السياق الطويل.
حالات الاستخدام التمثيلية
- الأنظمة الوكيلة / التنسيق: وكلاء متعددون للأدوات (واجهات برمجة التطبيقات، ومكشطات الويب، وموصلات تنفيذ التعليمات البرمجية) يستفيدون من "التفكير" على مستوى النموذج + بدائيات استدعاء الأدوات الصريحة.
- الاستدلال / التحليل للوثائق الطويلة: المستندات القانونية، ومجموعات الأبحاث الضخمة، ونصوص الاجتماعات - تتيح لك المتغيرات ذات السياق الطويل (128 ألف رمز) الاحتفاظ بسياقات كبيرة للغاية في مكالمة واحدة.
- المساعدة في الرياضيات المعقدة والترميز:
V3.2-Specialeيتم الترويج له من أجل التفكير الرياضي المتقدم ومهام تصحيح أخطاء التعليمات البرمجية المكثفة وفقًا لمعايير البائع. - نشر الإنتاج الحساس للتكلفة: تهدف تغييرات التسعير الخاصة بـ DSA + إلى خفض تكاليف الاستدلال لأحمال العمل ذات السياق العالي.
كيفية البدء في الاستخدامبرنامج DeepSeek الإصدار 3.2 API
برنامج DeepSeek الإصدار 3.2 أسعار API في CometAPI، خصم 20% من السعر الرسمي:
| رموز الإدخال | $0.22 |
| رموز الإخراج | $0.35 |
الخطوات المطلوبة
- تسجيل الدخول إلى كوميتابي.كوم. إذا لم تكن مستخدمًا لدينا بعد، فيرجى التسجيل أولاً
- احصل على مفتاح API لبيانات اعتماد الوصول للواجهة. انقر على "إضافة رمز" في رمز API في المركز الشخصي، واحصل على مفتاح الرمز: sk-xxxxx، ثم أرسله.
- احصل على عنوان URL لهذا الموقع: https://api.cometapi.com/
استخدام الطريقة
- حدد "
deepseek-v3.2نقطة نهاية لإرسال طلب واجهة برمجة التطبيقات (API) وتعيين نص الطلب. يمكن الحصول على طريقة الطلب ونصه من وثيقة واجهة برمجة التطبيقات على موقعنا الإلكتروني. كما يوفر موقعنا اختبار Apifox لتسهيل الأمر عليك. - يستبدل باستخدام مفتاح CometAPI الفعلي الخاص بك من حسابك.
- أختار دردشة التنسيق: أدخل سؤالك أو طلبك في حقل المحتوى - وهذا ما سيستجيب له النموذج.
- .قم بمعالجة استجابة API للحصول على الإجابة الناتجة.
