ما هو DeepSeek v3.2؟
DeepSeek v3.2 هو أحدث إصدار إنتاجي ضمن عائلة DeepSeek V3: عائلة نماذج لغوية مفتوحة الأوزان تضع الاستدلال في المقام الأول، مصممة من أجل فهم السياقات الطويلة، والاستخدام المتين للوكلاء/الأدوات، والاستدلال المتقدم، والبرمجة والرياضيات. تتضمن الإصدارة عدة متغيرات (الإصدار الإنتاجي V3.2 ونسخة عالية الأداء V3.2-Speciale). يركز المشروع على استدلال منخفض التكلفة للسياقات الطويلة عبر آلية انتباه متناثر جديدة تُدعى DeepSeek Sparse Attention (DSA) ومسارات للوكلاء/“التفكير” (“Thinking in Tool-Use”).
الميزات الرئيسية (على مستوى عالٍ)
- DeepSeek Sparse Attention (DSA): آلية انتباه متناثر تهدف إلى تقليل الحسابات بشكل كبير في سيناريوهات السياقات الطويلة مع الحفاظ على الاستدلال بعيد المدى. (ادعاء بحثي أساسي؛ مُستخدَمة في
V3.2-Exp.) - تفكير وكيل + تكامل استخدام الأدوات: يؤكد V3.2 على تضمين “التفكير” في استخدام الأدوات: يمكن للنموذج العمل في أوضاع تفكير استدلالي وفي أوضاع غير التفكير (العادية) عند استدعاء الأدوات، مما يحسن اتخاذ القرار في المهام متعددة الخطوات وتنظيم الأدوات.
- خط أنابيب واسع النطاق لتوليف بيانات الوكلاء: يذكر DeepSeek مجموعة تدريب وخط توليف للوكلاء يشمل آلاف البيئات وعشرات الآلاف من التعليمات المعقدة لتعزيز المتانة في المهام التفاعلية.
- DeepSeek Sparse Attention (DSA): DSA هي طريقة انتباه متناثر دقيقة الحبيبات قُدِّمت في خط V3.2 (أولاً في V3.2-Exp) تقلل تعقيد الانتباه (من O(L²) الساذج إلى نمط O(L·k) مع k ≪ L)، باختيار مجموعة أصغر من مفاتيح/قيم الرموز لكل رمز استعلام. النتيجة هي خفض ملموس للذاكرة/الحساب للسياقات الطويلة جداً (128K)، مما يجعل الاستدلال في السياقات الطويلة أقل تكلفة بشكل مادي.
- الهيكلية القائمة على Mixture-of-Experts (MoE) وMulti-head Latent Attention (MLA): تستخدم عائلة V3 أسلوب MoE لزيادة السعة بكفاءة (أعداد اسمية كبيرة من المعاملات مع تفعيل محدود لكل رمز) إلى جانب أساليب MLA للحفاظ على الجودة والتحكم في الحسابات.
المواصفات التقنية (ملخص موجز)
- النطاق الاسمي للمعاملات: ~671B – 685B (بحسب المتغير).
- نافذة السياق (مرجع موثّق): 128,000 رمز (128K) في إعدادات vLLM/reference.
- الانتباه: DeepSeek Sparse Attention (DSA) + MLA؛ تقليل تعقيد الانتباه للسياقات الطويلة.
- دقة الأعداد والتدريب: BF16 / F32 وصيغ كمّية مضغوطة (F8_E4M3 إلخ.) متاحة للتوزيع.
- العائلة المعمارية: هيكلية MoE (خليط الخبراء) مع اقتصاد في التفعيل لكل رمز.
- الإدخال/الإخراج: إدخال نصي قياسي مُرمَّز بالرموز (تُدعَم صيغ الدردشة/الرسائل)؛ يدعم استدعاءات الأدوات (بدائيات API لاستخدام الأدوات) وكلاً من مكالمات الدردشة التفاعلية والإكمالات البرمجية عبر API.
- المتغيرات المتاحة:
v3.2،v3.2-Exp(تجريبي، ظهور DSA الأول)،v3.2-Speciale(موجه للاستدلال، متاح عبر API مؤقتاً).
أداء المعايير
يصل المتغير عالي الحوسبة V3.2-Speciale إلى التكافؤ أو يتفوق على نماذج رفيعة المستوى معاصرة في عدة معايير للاستدلال/الرياضيات/البرمجة، ويحقق درجات قمة في مجموعات مختارة من مسائل الرياضيات النخبوية. تسلط المسودة الأولية الضوء على التكافؤ مع نماذج مثل GPT-5 / Kimi K2 في معايير استدلال مختارة، وتحسينات محددة مقارنة بخطوط أساس DeepSeek R1/V3 السابقة:
- AIME: تحسّن من 70.0 إلى 87.5 (Δ +17.5).
- GPQA: 71.5 → 81.0 (Δ +9.5).
- LCB_v6: 63.5 → 73.3 (Δ +9.8).
- Aider: 57.0 → 71.6 (Δ +14.6).
المقارنة مع نماذج أخرى (على مستوى عالٍ)
- مقابل GPT-5 / Gemini 3 Pro (ادعاءات عامة): يزعم مؤلفو DeepSeek وعدة منافذ صحفية تحقيق التكافؤ أو التفوق في مهام الاستدلال والبرمجة المختارة لنسخة Speciale، مع التأكيد على الكفاءة التكلفية والترخيص المفتوح كعوامل تمييز.
- مقابل النماذج المفتوحة (Olmo, Nemotron, Moonshot, وغيرها): يبرز DeepSeek تدريب الوكلاء وDSA كعوامل تمييز رئيسية لكفاءة السياقات الطويلة.
حالات استخدام نموذجية
- أنظمة وكيلة/تنسيق: وكلاء متعددون للأدوات (واجهات API، أدوات جمع الويب، موصلات تنفيذ الشيفرة) تستفيد من “التفكير” على مستوى النموذج + بدائيات استدعاء الأدوات الصريحة.
- استدلال/تحليل مستندات طويلة: مستندات قانونية، مجموعات بحثية كبيرة، محاضر اجتماعات — تسمح متغيرات السياق الطويل (128k رمز) بإبقاء سياقات كبيرة جداً في مكالمة واحدة.
- مساعدة في الرياضيات المعقدة والبرمجة: يتم الترويج لـ
V3.2-Specialeمن أجل استدلال رياضي متقدم ومهام تصحيح شيفرة موسّعة وفق معايير البائع. - نشرات إنتاجية حساسة للتكلفة: يهدف DSA + تغييرات التسعير إلى خفض تكلفة الاستدلال لأعباء العمل ذات السياقات العالية.
كيفية البدء في استخدام واجهة برمجة تطبيقات DeepSeek v3.2
تسعير واجهة DeepSeek v3.2 في CometAPI، خصم 20% عن السعر الرسمي:
| رموز الإدخال | $0.22 |
|---|---|
| رموز الإخراج | $0.35 |
الخطوات المطلوبة
- سجّل الدخول إلى cometapi.com. إذا لم تكن مستخدماً لدينا بعد، يرجى التسجيل أولاً
- احصل على مفتاح واجهة API. انقر “Add Token” في قسم API token في المركز الشخصي، واحصل على مفتاح الرمز: sk-xxxxx وقم بإرساله.
- احصل على عنوان الموقع: https://api.cometapi.com/
طريقة الاستخدام
- اختر نقطة النهاية “
deepseek-v3.2” لإرسال طلب الـ API واضبط جسم الطلب. تُؤخذ طريقة الطلب وجسم الطلب من دليل API على موقعنا. يوفر موقعنا أيضاً اختبار Apifox لراحتك. - استبدل <YOUR_API_KEY> بمفتاح CometAPI الفعلي من حسابك.
- اختر تنسيق Chat: أدخل سؤالك أو طلبك في حقل content — هذا ما سيستجيب له النموذج.
- .عالج استجابة واجهة البرمجة للحصول على الإجابة المُولَّدة.