DeepSeek-V3.2

DeepSeek
deepseek-v3.2
مدخل:$0.22/M
الإخراج:$0.35/M
سياق:128K
الحد الأقصى للإخراج:4K
DeepSeek v3.2 هو أحدث إصدار إنتاجي ضمن عائلة DeepSeek V3: عائلة نماذج لغوية كبيرة بأوزان مفتوحة تعطي الأولوية للاستدلال، ومصممة لفهم السياقات الطويلة، والاستخدام القوي للوكلاء/الأدوات، والاستدلال المتقدم، والبرمجة والرياضيات.

ما هو DeepSeek v3.2؟

DeepSeek v3.2 هو أحدث إصدار إنتاجي ضمن عائلة DeepSeek V3: عائلة من نماذج اللغة ذات الأوزان المفتوحة كبيرة الحجم تضع الاستدلال أولًا، ومصممة لفهم السياقات الطويلة، والاستخدام المتين للوكلاء/الأدوات، والاستدلال المتقدم، والبرمجة والرياضيات. يتضمن الإصدار عدة متغيرات (الإصدار الإنتاجي V3.2 ونسخة عالية الأداء V3.2-Speciale). يركّز المشروع على استدلال منخفض التكلفة للسياقات الطويلة عبر آلية انتباه متناثر جديدة تُسمى DeepSeek Sparse Attention (DSA) وسير عمل للوكلاء/“التفكير” (“Thinking in Tool-Use”).

الميزات الرئيسية (على مستوى عالٍ)

  • DeepSeek Sparse Attention (DSA): آلية انتباه متناثر تهدف إلى خفض كلفة الحوسبة جذريًا في سيناريوهات السياق الطويل مع الحفاظ على الاستدلال بعيد المدى. (ادعاء بحثي أساسي؛ مستخدمة في V3.2-Exp.)
  • التفكير الوكالي + تكامل استخدام الأدوات: يركّز V3.2 على تضمين “التفكير” داخل استخدام الأدوات؛ إذ يمكن للنموذج العمل في أوضاع التفكير الاستدلالي وفي الأوضاع غير التفكيرية (العادية) عند استدعاء الأدوات، ما يحسّن اتخاذ القرار في المهام متعددة الخطوات وتنسيق الأدوات.
  • خط أنابيب توليف بيانات الوكلاء على نطاق واسع: تشير DeepSeek إلى مجموعة تدريب وخط توليف للوكلاء يغطي آلاف البيئات وعشرات الآلاف من التعليمات المعقدة لتعزيز المتانة في المهام التفاعلية.
  • DeepSeek Sparse Attention (DSA): DSA طريقة دقيقة الحُبيبات للانتباه المتناثر قُدّمت في سلسلة V3.2 (أولًا في V3.2-Exp) وتقلل تعقيد الانتباه (من O(L²) الساذجة إلى نمط O(L·k) مع k ≪ L)، عبر اختيار مجموعة أصغر من رموز المفتاح/القيمة لكل رمز استعلام. النتيجة هي انخفاض كبير في الذاكرة/الحوسبة للسياقات الطويلة جدًا (128K)، ما يجعل الاستدلال في السياق الطويل أقل كلفة ماديًا.
  • هيكل Mixture-of-Experts (MoE) وMulti-head Latent Attention (MLA): تستخدم عائلة V3 بنية MoE لزيادة السعة بكفاءة (عدد معاملات اسمي كبير مع تفعيل محدود لكل رمز) مع أساليب MLA للحفاظ على الجودة والتحكم في الكلفة الحاسوبية.

المواصفات التقنية (ملخص موجز)

  • النطاق الاسمي للمعاملات: ~671B – 685B (وفق المتغير).
  • نافذة السياق (مرجع موثّق): 128,000 رمز (128K) في إعدادات vLLM/reference.
  • الانتباه: DeepSeek Sparse Attention (DSA) + MLA؛ تعقيد انتباه مخفّض للسياقات الطويلة.
  • الدقة العددية والتدريب: BF16 / F32 وصيغ كمّية مضغوطة (F8_E4M3 وغيرها) متاحة للتوزيع.
  • العائلة المعمارية: MoE (mixture-of-experts) مع اقتصاد في التفعيل لكل رمز.
  • الإدخال/الإخراج: إدخال نص مُجزّأ قياسي (يدعم تنسيقات الدردشة/الرسائل)؛ يدعم استدعاءات الأدوات (بدائيات API لاستخدام الأدوات) وكلًا من الاستدعاءات التفاعلية بأسلوب الدردشة والإكمالات البرمجية عبر الـAPI.
  • المتغيرات المطروحة: v3.2، v3.2-Exp (تجريبي، الظهور الأول لـ DSA)، v3.2-Speciale (يركّز على الاستدلال أولًا، متاح عبر الـAPI فقط مؤقتًا).

أداء المعايير القياسية

يصل V3.2-Speciale عالِي الحوسبة إلى التكافؤ أو يتجاوز النماذج عالية المستوى المعاصرة في عدة معايير للاستدلال/الرياضيات/البرمجة، ويحقق نتائج متقدمة في مجموعات مسائل رياضية نخبوية محددة. يبرز البحث المبدئي التكافؤ مع نماذج مثل GPT-5 / Kimi K2 في معايير استدلال محددة، وتحسينات مقارنة بخطوط DeepSeek R1/V3 السابقة:

  • AIME: تحسّن من 70.0 إلى 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Aider: 57.0 → 71.6 (Δ +14.6).

مقارنة مع نماذج أخرى (على مستوى عالٍ)

  • مقابل GPT-5 / Gemini 3 Pro (ادعاءات علنية): يزعم مؤلفو DeepSeek وعدة جهات إعلامية تحقيق التكافؤ أو التفوق في مهام الاستدلال والبرمجة لنسخة Speciale، مع التأكيد على كفاءة التكلفة والترخيص المفتوح كعوامل تمييز.
  • مقابل النماذج المفتوحة (Olmo وNemotron وMoonshot وغيرها): تبرز DeepSeek تدريبًا وكاليًا وDSA كعناصر فارقة لكفاءة السياق الطويل.

حالات استخدام تمثيلية

  • أنظمة وكالية/تنسيق: وكلاء متعددون للأدوات (واجهات برمجة تطبيقات، كاشطات ويب، موصلات تنفيذ كود) تستفيد من “التفكير” على مستوى النموذج + بدائيات استدعاء الأدوات.
  • استدلال/تحليل المستندات الطويلة: وثائق قانونية، مجموعات بحثية كبيرة، محاضر اجتماعات — تسمح متغيرات السياق الطويل (128k رمزًا) بالحفاظ على سياقات ضخمة في استدعاء واحد.
  • دعم الرياضيات المعقدة والبرمجة: يُروَّج لـV3.2-Speciale للاستدلال الرياضي المتقدم وتصحيح الأخطاء الموسّع وفق معايير البائع.
  • عمليات نشر إنتاجية حساسة للتكلفة: تهدف DSA + تغييرات التسعير إلى خفض كلفة الاستدلال لأعباء العمل ذات السياق المرتفع.

كيفية البدء باستخدام واجهة DeepSeek v3.2 البرمجية (API)

تسعير DeepSeek v3.2 في CometAPI، خصم 20% عن السعر الرسمي:

رموز الإدخال$0.22
رموز الإخراج$0.35

الخطوات المطلوبة

  • سجّل الدخول إلى cometapi.com. إذا لم تكن مستخدمًا لدينا بعد، يرجى التسجيل أولًا.
  • احصل على مفتاح واجهة API (بيانات اعتماد الوصول). انقر “Add Token” ضمن API token في المركز الشخصي، واحصل على مفتاح الرمز: sk-xxxxx ثم أرسِل.
  • احصل على عنوان الموقع: https://api.cometapi.com/

طريقة الاستخدام

  1. اختر نقطة النهاية “deepseek-v3.2” لإرسال طلب API وعيّن جسم الطلب. يمكنك الحصول على طريقة الطلب وجسمه من وثائق API على موقعنا. يوفّر موقعنا أيضًا اختبار Apifox لراحتك.
  2. استبدل <YOUR_API_KEY> بمفتاح CometAPI الفعلي من حسابك.
  3. اختر تنسيق الدردشة: أدخل سؤالك أو طلبك في حقل المحتوى — هذا ما سيرد عليه النموذج.
  4. عالج استجابة الـAPI للحصول على الإجابة المولّدة.

المزيد من النماذج