كم عدد المعلمات التي يحتوي عليها GPT-5؟

CometAPI
AnnaDec 2, 2025
كم عدد المعلمات التي يحتوي عليها GPT-5؟

لم تنشر شركة OpenAI عددًا رسميًا للمعلمات الخاصة بـ GPT-5 — من حوالي 1.7-1.8 تريليون معلمة (تقديرات على غرار النموذج الكثيف) إلى عشرات التريليونات إذا حسبنا إجمالي سعة هياكل مزيج الخبراء (MoE)، فلم يتم تأكيد أيٍّ من هذه الأرقام رسميًا، كما أن الاختلافات في البنية (كثيفة مقابل MoE)، ومشاركة المعلمات، والتناقص، والتكميم تجعل رقمًا رئيسيًا واحدًا مضللًا.


ماذا تقول OpenAI عن حجم GPT-5 وهندسته المعمارية؟

تُركّز مواد OpenAI العامة حول GPT-5 على القدرات وواجهات برمجة التطبيقات وعناصر التحكم الجديدة بدلاً من التركيز على عدد المعاملات الخام. تُقدّم صفحات المنتج والمطورين الخاصة بالشركة ميزات GPT-5 - ترميز مُحسّن، وواجهة جديدة verbosity المعلمة، وضوابط التفكير الجديدة - ولكن هل تفعل ذلك؟ لست الكشف عن قيمة "المعلمات = X". على سبيل المثال، تصف صفحات GPT-5 الرسمية لشركة OpenAI ووثائق المطورين القدرات ومفاتيح التكوين، ولكنها تغفل تحديد عدد المعلمات.

لماذا هذا الصمت مهم؟

كان عدد المعاملات اختصارًا بسيطًا لمقياس النموذج. أما اليوم، فهو أقل إفادةً: فخيارات تصميم النموذج (مزيج الخبراء، ومشاركة المعاملات، والتكميم)، وحوسبة التدريب، وجودة البيانات، والتغييرات الخوارزمية، يمكن أن تُحدث اختلافات كبيرة في القدرات دون تغيير متناسب في إجمالي المعاملات المنشورة. ويعكس تركيز OpenAI على الميزات وتحسينات السلامة هذا التحول: إذ تُركز على الأداء، واختبارات السلامة، وضوابط واجهة برمجة التطبيقات (API) أكثر من التركيز على الحجم الخام.


ما هي التقديرات المستقلة الموجودة - وما مدى اختلافها؟

لأن OpenAI لم تنشر الرقم، يُجري فريقنا تقديرًا بناءً على عدة سيناريوهات أنتجت تقديرات وفرضيات. تنقسم هذه التقديرات إلى عدة فئات:

  • ~1.7–1.8 تريليون معلمة (تقدير النمط الكثيف). تُقارن العديد من التحليلات أداءَ المعيار، والتسعير، والقياس التاريخي لتقدير أن GPT-5 يقع ضمن نطاق التريليونات المنخفضة من المعاملات - وهو ما يُقارب بعض تقديرات GPT-4 من حيث الحجم. هذه التقديرات حذرة، وتُعامل GPT-5 كنموذج كثيف ذي نطاق واسع، وليس كنظام ضخم متعدد الإمكانات.
  • عشرات التريليونات (مجموعات على غرار وزارة التعليم). تشير تقارير أخرى إلى أن GPT-5 (أو بعض متغيرات GPT-5) يستخدم نهج مزيج الخبراء حيث مجموع يمكن أن يصل عدد المعلمات لجميع الخبراء إلى عشرات التريليونات - على سبيل المثال، تم تداول تكوين MoE يضم 52.5 تريليون معلمة في تعليقات القطاع. تُفعّل أنظمة MoE مجموعة فرعية فقط من الخبراء لكل رمز، لذا فإن "إجمالي المعلمات" و"المعلمات النشطة لكل تمريرة أمامية" مقياسان مختلفان تمامًا.
  • المحافظ يأخذ ذلك في الاعتبار تجنب الرقم الواحد. تؤكد بعض الكتابات التقنية والمجمعين أن عدد المعلمات وحده يعد مؤشرًا ضعيفًا وبالتالي يرفضون إعطاء رقم نهائي، مفضلين تحليل الأداء والزمن الكامن والتسعير والمقايضات المعمارية.

هذه الاختلافات مهمة: لا يمكن مقارنة ادعاء "كثافة 1.8T" و"إجمالي MoE 50T" بشكل مباشر - فالأول يعني مصفوفة كثيفة مطبقة على كل رمز، بينما يعني الأخير نمط تنشيط متفرق يجعل الحوسبة الفعالة واستخدام الذاكرة مختلفين للغاية.


كيف يمكن لمصادر مختلفة أن تنتج أرقامًا مختلفة كهذه؟

هناك العديد من الأسباب الفنية والسياقية التي تؤدي إلى اختلاف التقديرات.

(أ) الهندسة المعمارية الكثيفة مقابل الهندسة المعمارية المتفرقة (مزيج من الخبراء)

يُطبّق المُحوّل الكثيف مصفوفات الوزن نفسها على كل رمز؛ ويُمثّل عدد مُعاملات النموذج الكثيف عدد الأوزان المُخزّنة. يُخزّن نموذج MoE العديد من النماذج الفرعية الخبيرة، ولكنه لا يُفعّل سوى مجموعة فرعية صغيرة لكل رمز. يُبلغ الناس أحيانًا عن مجموع عدد المعلمات الخبيرة (والتي يمكن أن تكون هائلة) بينما يبلغ البعض الآخر عن ستارفيل عدد المعلمات المُفعّلة لكل رمز (أصغر بكثير). هذا التباين يُنتج أرقامًا رئيسية مختلفة تمامًا.

(ب) مشاركة المعلمات والتمثيلات الفعالة

غالبًا ما تستخدم نماذج الإنتاج الحديثة أساليب مشاركة المعلمات، أو محولات منخفضة الرتبة، أو تكميمًا مكثفًا. تُقلل هذه الأساليب من حجم الذاكرة وتُغير طريقة حساب "المعلمات" لتحقيق السعة العملية. قد يختلف سلوك نموذجين بنفس عدد المعلمات الخام إذا استخدم أحدهما أوزانًا مشتركة أو ضغطًا.

(ج) الاقتصاد الموجه للجمهور وتغليف المنتجات

قد تعرض الشركات نماذج مختلفة المتغيرات (مثل GPT-5، وGPT-5-mini، وGPT-5-instant) بأحجام داخلية وتكاليف مختلفة. تُعطي أسعار هذه المتغيرات وزمن الوصول والإنتاجية للمحللين دلائل غير مباشرة، إلا أن هذه الدلائل تتطلب افتراضات حول التجميعات ومجموعات الأجهزة والبرامج التي قد تُسبب أخطاءً.

(د) عدم الإفصاح المتعمد والأسباب التنافسية

تتعامل OpenAI وشركات أخرى بشكل متزايد مع بعض تفاصيل البنية التحتية على أنها ملكية خاصة. هذا يقلل مما يمكن تعلمه من حساب المبادئ الأولية، ويُجبر المجتمع على الاعتماد على الاستدلالات غير المباشرة (المعايير، زمن الوصول، شركاء البنية التحتية المُبلغ عنهم)، والتي تُعتبر مُشوشة.


ما هي التقديرات المنشورة الأكثر مصداقية؟

تقييم قصير

لا يوجد مصدر عام واحد موثوق به؛ فالمصداقية تعتمد على الأساليب:

  • تحليلات تعتمد على معايير المقارنة والتسعير وزمن الاستدلال (على سبيل المثال، المدونات التقنية الصناعية الدقيقة) مفيدة ولكنها تقريبية بالضرورة.
  • ادعاءات حول أعداد المعلمات الإجمالية الهائلة معقولة if البنية هي نموذج MoE - لكن هذه الإجماليات لا تُقارن مباشرةً بالنماذج الكثيفة، وغالبًا ما تأتي من استقراءٍ وليس من أدلةٍ أولية. تعامل معها كمقياسٍ مختلف.
  • صمت OpenAI يعتبر الرقم في حد ذاته نقطة بيانات مهمة: حيث تؤكد الشركة على السلوك والسلامة وضوابط واجهة برمجة التطبيقات (API) فيما يتعلق بالأعداد الخام.

كيفية وزن الأرقام

إذا كنت بحاجة إلى افتراض عمل للهندسة أو المشتريات: النموذج سلوك (زمن الوصول، الإنتاجية، تكلفة الرمز، دقة المهام) أهم من إجمالي المعاملات غير المُتحقق منها. إذا كنتَ مضطرًا لاستخدام تقدير عددي لنمذجة التكلفة، فافترض بشكل متحفظ تريليون منخفض حجم الطلب ما لم يكن لديك دليل مباشر على MoE وأنماط تنشيطه؛ إذا كان MoE موجودًا، اسأل عما إذا كان المقياس مجموع vs نشط المعلمات قبل استخدام الرقم لتخطيط القدرة.


هل لا يزال عدد المعلمات يتنبأ بالأداء؟

الجواب القصير: جزئيا، ولكن بشكل أقل موثوقية من ذي قبل.

النظرة التاريخية

أظهرت قوانين التوسع ارتباطًا وثيقًا بين حجم النموذج، وسرعة الحوسبة، والأداء في بعض المعايير. وقد أدت زيادة المعلمات (ومطابقة سرعة الحوسبة/البيانات) تاريخيًا إلى تحسين القدرات بشكل متوقع. ومع ذلك، تفترض هذه القوانين تشابهًا في هياكلها وأنظمة التدريب.

التحذيرات الحديثة

اليوم، يمكن للابتكارات المعمارية (مزيج الخبراء، تحسين التحسين، التدريب المتسلسل، ضبط التعليمات)، وتنظيم بيانات التدريب، والضبط الدقيق المُستهدف (RLHF، تكامل استخدام الأدوات) أن تزيد من القدرة لكل مُعامل بشكل أكبر بكثير من التوسع البسيط. تُركز إعلانات OpenAI حول GPT-5 على ضوابط التفكير ومعايير المطورين مثل verbosity و reasoning_effort - خيارات التصميم التي تغير تجربة المستخدم دون أن يحتاج أي شخص إلى معرفة عدد المعلمات فقط.

لذا: عدد المعلمات هو صورة واحدة؟ إنه ليس بالضرورة أو كافيا لتوصيف فائدة النموذج.


ماذا تقول آخر الأخبار عن GPT-5 بخلاف الحجم؟

تُركز التقارير الأخيرة على القدرات والسلامة وخيارات المنتجات بدلاً من التركيز على الحجم الخام. وقد غطت وسائل الإعلام ادعاءات OpenAI بأن GPT-5 يُقلل من التحيز السياسي في مخرجاته، وأن تغييرات جديدة في تحديد الأعمار وسياسات المحتوى قادمة، وأن OpenAI تُجري عمليات تكرار لجعل النموذج أكثر فائدةً وسهولةً في التحكم به للمطورين. هذه إشاراتٌ للمنتج والسياسة، وهي أكثر أهميةً في التطبيق العملي من مجرد إحصاءٍ غير مُعلنٍ للمعايير.

تغييرات عملية في المنتج

تعلن مواد مطوري OpenAI عن معلمات جديدة لواجهة برمجة التطبيقات (الإسهاب، وجهد التفكير، والأدوات المخصصة) مصممة لتمكين المطورين من الموازنة بين السرعة والتفاصيل وعمق التفكير. هذه المعلمات ملموسة وقابلة للتنفيذ فورًا للمطورين الذين يتعين عليهم تحديد إصدار أو إعداد GPT-5 المناسب لمنتجهم.


ماذا يجب على الباحثين والمهندسين فعله إذا احتاجوا إلى التخطيط للقدرة أو التكلفة؟

لا تعتمد على رقم "المعلمات" واحد

استعمل المقارنة المعيارية التجريبية على عبء عملك. قِس زمن الوصول، والإنتاجية، وتكلفة الرمز، والدقة بناءً على المطالبات التمثيلية. هذه المقاييس هي ما ستدفعه وما سيختبره مستخدموك. قد تختلف التكاليف الفعلية للنماذج ذات أعداد المعلمات المتشابهة اختلافًا كبيرًا.

إذا كان عليك اختيار افتراض قائم على المعلمات

وثّق ما إذا كنت تقوم بالنمذجة مجموع المعلمات (مفيدة للتخزين وبعض مناقشات الترخيص) مقابل نشط معلمات كل رمز (مفيدة للذاكرة/الحوسبة وقت التشغيل). في حال استخدام تقدير عام، يُرجى ذكر مصدره وافتراضاته (MoE مقابل الكثافة، التكميم، ما إذا كانت الأوزان مشتركة).

راقب الوثائق الرسمية والتغييرات المعلنة لـ OpenAI

تنشر OpenAI ميزات واجهات برمجة التطبيقات (API) وأسعارها التي تؤثر مباشرةً على التكلفة؛ وهي أكثر فعالية من عدد المعلمات التخميني. تابع صفحات المطورين وملاحظات الإصدار لمعرفة أسماء المتغيرات والأسعار ومستويات زمن الوصول.


إذن، كم عدد المعلمات التي يمتلكها GPT-5، أخيرًا؟

هناك لا توجد إجابة عامة واحدة موثوقة لأن OpenAI لم تنشر عدد المعاملات، وتقديرات الجهات الخارجية متباينة. أفضل ملخص صادق:

  • أوبن إيه آي: لا يوجد عدد عام للمعلمات؛ حيث ينصب التركيز على القدرة والسلامة وضوابط المطور.
  • تقديرات حذرة مستقلة: تشير العديد من التحليلات إلى أن تريليون منخفض قيمة رتبة (≈1.7–1.8T) إذا قمتَ بنمذجة GPT-5 كمحوّل كثيف ذي حجم مُدرَج. اعتبر هذا تقديرًا، وليس حقيقة.
  • مطالبات وزارة التعليم/المعلمة الكلية: هناك ادعاءات متداولة (مثلًا، حوالي ٥٢.٥ تيرا) تشير إلى إجمالي سعة الخبراء في تكوين افتراضي لـ MoE. هذه الادعاءات لا تُقارن مباشرةً بالإحصاءات الكثيفة، وتعتمد على سلوك التنشيط.

الوجبات الجاهزة النهائية

  1. تعتبر أعداد المعلمات مفيدة ولكنها غير كاملة. تساعد هذه البرامج في بناء الحدس حول الحجم، ولكن قدرات LLM الحديثة تعتمد على الهندسة المعمارية، وبيانات التدريب، والحوسبة، والضبط الدقيق.
  2. لا تنشر OpenAI إجمالي معلمات GPT-5. ولذلك يعتمد المحللون على الإشارات والافتراضات غير المباشرة؛ ويتوقعون مجموعة من التقديرات.
  3. إجماليات وزارة التعليم مقابل الأعداد الكثيفة: إذا رأيت عنوانًا "عشرات التريليونات"، فتأكد مما إذا كان يشير إلى إجمالي خبراء وزارة التعليم or المعلمات النشطة لكل رمز -إنهم ليسوا نفس الشيء.
  4. تتفوق المعايير على التكهنات عند اتخاذ القرارات بشأن المنتجات. قِس النموذج بناءً على المهام التي تهمك (الدقة، زمن الوصول، التكلفة). من المرجح أن تكون إعدادات واجهة برمجة التطبيقات (API) التي توفرها OpenAI (الإسهاب، جهد الاستدلال) أكثر أهمية من رقم إجمالي غير مُتحقق للمعلمات.

كيفية استدعاء API GPT-5 بتكلفة أقل؟

CometAPI هي منصة واجهات برمجة تطبيقات موحدة تجمع أكثر من 500 نموذج ذكاء اصطناعي من أبرز المزودين، مثل سلسلة GPT من OpenAI، وGemini من Google، وClaude من Anthropic، وMidjourney، وSuno، وغيرهم، في واجهة واحدة سهلة الاستخدام للمطورين. من خلال توفير مصادقة متسقة، وتنسيق الطلبات، ومعالجة الردود، تُبسط CometAPI بشكل كبير دمج قدرات الذكاء الاصطناعي في تطبيقاتك. سواء كنت تُنشئ روبوتات دردشة، أو مُولّدات صور، أو مُلحّنين موسيقيين، أو خطوط أنابيب تحليلات قائمة على البيانات، تُمكّنك CometAPI من التكرار بشكل أسرع، والتحكم في التكاليف، والاعتماد على مورد واحد فقط، كل ذلك مع الاستفادة من أحدث التطورات في منظومة الذكاء الاصطناعي.

يمكن للمطورين الوصول GPT-5 و واجهة برمجة تطبيقات GPT-5 Pro من خلال CometAPI، أحدث إصدار للنموذج يتم تحديثه دائمًا بالموقع الرسمي. للبدء، استكشف إمكانيات النموذج في ملعب واستشر دليل واجهة برمجة التطبيقات للحصول على تعليمات مفصلة. قبل الدخول، يُرجى التأكد من تسجيل الدخول إلى CometAPI والحصول على مفتاح API. كوميت ايه بي اي عرض سعر أقل بكثير من السعر الرسمي لمساعدتك على التكامل.

هل أنت مستعد للذهاب؟→ سجل في CometAPI اليوم !

إذا كنت تريد معرفة المزيد من النصائح والإرشادات والأخبار حول الذكاء الاصطناعي، فتابعنا على VKX و ديسكورد!

SHARE THIS BLOG

اقرأ المزيد

500+ نموذج في واجهة برمجة تطبيقات واحدة

خصم يصل إلى 20%