Mistral 3: ماڈل فیملی، آرکیٹیکچر، بینچ مارکس اور مزید

CometAPI
AnnaDec 7, 2025
Mistral 3: ماڈل فیملی، آرکیٹیکچر، بینچ مارکس اور مزید

Mistral 3، Mistral AI کی تازہ ترین اور پرعزم ریلیز ہے — اوپن ویٹ ماڈلز کا ایک مکمل خاندان جو بیک وقت کئی جہتوں میں پیش رفت کرتا ہے: فلیگ شپ سائز پر اسپارز-ایکسپرٹ اسکیلنگ، ایج اور لوکل ڈپلائمنٹ کے لیے کمپیکٹ ڈینس ویریئنٹس، طویل سیاق (long-context) کے ساتھ ملٹی موڈیلٹی، اور حقیقی دنیا کے استعمال اور تحقیق کی حوصلہ افزائی کرنے والی لچکدار اوپن لائسنسنگ۔

Mistral 3 کیا ہے؟

Mistral 3، Mistral AI کی جانب سے 2025 کے اواخر میں جاری کیے گئے اوپن ویٹ ملٹی موڈل لینگویج ماڈلز کا ایک خاندان ہے۔ اس خاندان میں تین ڈینس (نان اسپارز) کمپیکٹ ماڈلز — Ministral 3 کے 3B، 8B اور 14B پیرامیٹر — اور ایک فلیگ شپ Mistral Large 3 شامل ہے، جو کہ ایک اسپارز Mixture-of-Experts (MoE) ماڈل ہے جس کے کل پیرامیٹر 675B اور انفیرنس کے دوران تقریباً 41B ایکٹو پیرامیٹر ہوتے ہیں۔ تمام ماڈلز Apache 2.0 لائسنس کے تحت جاری کیے گئے ہیں اور وسیع تقسیم اور لوکل ڈپلائمنٹ کی سہولت کے لیے کمپریسڈ فارمیٹس میں دستیاب ہیں۔ Mistral کی نمایاں خصوصیات میں ملٹی موڈل صلاحیتیں، بہت طویل کانٹیکسٹ ونڈوز (Large: 256K ٹوکنز تک)، اور جدید ایکسلریٹرز کے لیے آپٹیمائزیشنز شامل ہیں۔

Mistral 3 تین وجوہات کی بنا پر اہم ہے:

  1. رینج — یہ خاندان ٹائنی سے فرنٹیئر اسکیلز تک محیط ہے (3B / 8B / 14B ڈینس Ministral ویریئنٹس اور 675B پیرامیٹر MoE)، جس سے لاگت/کارکردگی کے مختلف توازنوں میں مستقل ریسرچ اور پروڈکشن ورک فلو ممکن ہوتے ہیں۔
  2. اوپننس — Mistral نے ماڈلز اور ویٹس Apache-2.0 لائسنس کے تحت جاری کیے اور Hugging Face جیسی پلیٹ فارمز پر ڈپلائبل آرٹیفیکٹس فراہم کیے تاکہ اپنانے کی رفتار بڑھے۔
  3. انجینئرنگ فوکس — Large 3 ماڈل باریک بینی والے MoE آرکیٹیکچر کو اپناتا ہے: کل پیرامیٹر بہت بڑے مگر انفیرنس کے دوران ایکٹو پیرامیٹرز بہت کم، جس کا مقصد مخصوص ورک لوڈز میں بہتر تھروپٹ اور لاگت مؤثریت کے ساتھ فرنٹیئر صلاحیت فراہم کرنا ہے۔

Mistral 3 خاندان کا جائزہ

Ministral 3 — 14B (Ministral 3 14B)

کیا ہے: کمپیکٹ/ایج “Ministral” لائن کا سب سے بڑا ڈینس (نان-MoE) ماڈل: 14 بلین پیرامیٹر کا ہائی-کوالٹی ملٹی موڈل ماڈل جو Base / Instruct / Reasoning ویریئنٹس میں پیش کیا گیا ہے اور متن + تصویر فہمی اور انسٹرکشن فالوونگ کے لیے ٹیون ہے۔

کب منتخب کریں: جب آپ MoE کی پیچیدگی کے بغیر ڈینس ماڈل سے نیئر ٹاپ-ٹیئر کارکردگی چاہتے ہوں، اور ایک ہی ماڈل میں مضبوط انسٹرکشن/چیٹ کارکردگی اور وژن صلاحیتیں درکار ہوں۔ چیٹ ایجنٹس، ملٹی موڈل اسسٹنٹس، کوڈ جنریشن، اور زیادہ تقاضوں والے آن ڈیوائس/ایج ورک لوڈز کے لیے مناسب جہاں بڑا ماڈل چلانا ممکن ہو۔

Ministral 3 — 8B (Ministral 3 8B)

کیا ہے: Ministral 3 خاندان میں 8 بلین پیرامیٹر کا متوازن اور مؤثر ڈینس ماڈل۔ Base / Instruct / Reasoning ویریئنٹس میں دستیاب اور ملٹی موڈل ان پٹس کو سہارا دیتا ہے۔ اسے بہت سے پروڈکشن استعمالات کے لیے “سویٹ اسپاٹ” کے طور پر پوزیشن کیا گیا ہے۔

کب منتخب کریں: جب آپ کو اچھی جنریشن کوالٹی اور ریزننگ چاہیے مگر 14B کے مقابلے میں بہت کم لیٹنسی اور VRAM فٹ پرنٹ درکار ہو۔ چیٹ بوٹس، آن ڈیوائس اسسٹنٹس، محدود GPU بجٹ والی ویب سروسز، اور کوانٹائزیشن کے ساتھ ایمبیڈیڈ یوزج کے لیے بہترین۔

Ministral 3 — 3B (Ministral 3 3B)

کیا ہے: Ministral 3 خاندان کا سب سے چھوٹا ڈینس رکن: 3 بلین پیرامیٹر کا ملٹی موڈل ماڈل (Base / Instruct / Reasoning)۔ انتہائی کم میموری/لیٹنسی منظرناموں کے لیے ڈیزائن کیا گیا ہے جبکہ جدید ملٹی موڈل خصوصیات برقرار رکھتا ہے۔

کب منتخب کریں: جب آپ کو آن ڈیوائس انفیرنس، بہت کم لیٹنسی، یا کم لاگت پر بڑی تعداد میں ہلکے وزن کے ایجنٹس چلانے کی ضرورت ہو — مثلاً موبائل ایپس، روبوٹس، ڈرونز، یا لوکل پرائیویسی-سینسٹیو ڈپلائمنٹس۔ چیٹ، سمریزیشن، ہلکے کوڈ ٹاسکس، اور تیز رفتار وژن+ٹیکسٹ ٹاسکس کے لیے موزوں۔

Mistral Small 3 — 24B(Mistral Small 3)

کیا ہے: Mistral 3 خاندان کا ایک لیٹنسی-آپٹیمائزڈ 24 بلین پیرامیٹر ڈینس ماڈل۔ یہ ہائی سنگل-GPU تھروپٹ اور مضبوط جنریشن کوالٹی فراہم کرنے کے لیے ڈیزائن کیا گیا ہے جبکہ سرونگ میں سادگی برقرار رکھتا ہے (MoE کی پیچیدگی نہیں)۔

کب منتخب کریں: جب آپ کو بہترین سنگل-GPU (یا سنگل-نوڈ) ٹریڈ آف چاہیے: بہت سے بینچ مارکس میں 14B/8B سے کہیں اعلیٰ کوالٹی، جبکہ ڈپلائے کرنا نسبتاً آسان۔ پروڈکشن کنورسیشنل سسٹمز، ہائر-فidelity اسسٹنٹس، اور ایسی ایپلی کیشنز کے لیے اچھا جو MoE سرونگ پیچیدگی کے بغیر زیادہ مضبوط ریزننگ چاہتی ہیں۔

Mistral Large 3 — MoE (Mixture-of-Experts)

کیا ہے: Mistral 3 خاندان کا فلیگ شپ اسپارز Mixture-of-Experts (MoE) ماڈل: ≈675B کل پیرامیٹرز کے ساتھ فی ٹوکن ~41B ایکٹو پیرامیٹرز (یعنی ہر ٹوکن کے لیے صرف چند ایکسپرٹس ایکٹیویٹ ہوتے ہیں)۔ فرنٹیئر ریزننگ، بہت طویل کانٹیکسٹ، اور کراس-ڈومین ٹاپ کارکردگی کے لیے ڈیزائن کیا گیا۔ یہ اوپن ویٹ (Apache-2.0) ہے۔

کب منتخب کریں: جب آپ کو بہترین ممکنہ ریزننگ، بہت طویل کانٹیکسٹ کی فہمی (Large 3 لمبی ونڈوز — وینڈر پیجز 256k ٹوکنز تک رپورٹ کرتے ہیں)، یا انٹرپرائز سسٹمز بنانے کی ضرورت ہو جہاں MoE سرونگ کی پیچیدگی اور انفراسٹرکچر کو جسٹیفائی کیا جا سکے۔

تقابلی جدول

ماڈلمضبوطیاںحدود اور نوٹس
Ministral 3 14Bکمپیکٹ خاندان کے اندر کوالٹی بمقابلہ ماڈل سائز کا بہترین توازن؛ اکثر آپٹیمائزڈ اسٹیکس میں 24B-سطح کی سنگل-GPU لیٹنسی کے قریب پہنچتا ہے۔ Instruct / Reasoning ویریئنٹس کے ساتھ مضبوط ریزننگ اور ملٹی موڈل فہمی۔8B/3B کے مقابلے میں بڑا میموری فٹ پرنٹ — سنگل-GPU کنزیومر ڈپلائمنٹ کے لیے کوانٹائزیشن یا آپٹیمائزڈ کرنلز درکار ہو سکتے ہیں۔ اگر آپ کو کم از کم لیٹنسی فٹ پرنٹ چاہیے تو 8B یا 3B پر غور کریں۔
Ministral 3 8Bمضبوط لاگت/لیٹنسی ٹریڈ آف: 14B کے مقابلے میں میموری اور کمپیوٹ کی ضروریات کہیں کم جبکہ ملٹی موڈل اور ریزننگ کارکردگی مضبوط (خصوصاً Reasoning ویریئنٹ میں)۔ آپٹیمائزڈ رن ٹائمز اور کوانٹائزیشن کے ساتھ چلانا آسان۔انتہائی مشکل ریزننگ یا طویل ترین کانٹیکسٹ ٹاسکس میں 14B یا 24B Small ماڈل جتنا مضبوط نہیں، مگر بہت کم لاگت پر اکثر “کافی اچھا”۔ میتھ/کوڈنگ/STEM کے لیے Reasoning ویریئنٹ استعمال کریں۔
Ministral 3 3Bسب سے چھوٹا فٹ پرنٹ، محدود ہارڈویئر پر تیز ترین رن، لوکل کوانٹائز اور ڈپلائے کرنا سب سے آسان۔ ٹیونڈ ویریئنٹس میں امیج فہمی اور انسٹرکشن فالوونگ کی سپورٹ برقرار۔بہت طویل یا پیچیدہ ریزننگ ٹاسکس میں 8B/14B/24B/بڑے MoE کے مقابلے میں کم خام جنریشن کوالٹی۔ اسکیل آؤٹ یا ایج کے لیے شاندار، مگر اعلیٰ ترین درستگی کے لیے بڑا ماڈل منتخب کریں۔
Mistral Small 3اپنی کلاس کے لیے ہائی MMLU-اسٹائل بینچ مارک کارکردگی، لیٹنسی-آپٹیمائزڈ آرکیٹیکچر اور کرنلز، اور Apache-2.0 کے تحت براہ راست استعمال کے لیے جاری۔ کلاوڈ وینڈرز اور آپٹیمائزڈ رن ٹائمز (NVIDIA وغیرہ) میں وسیع سپورٹ۔Ministral 14B/8B/3B کے مقابلے میں بڑا VRAM/کمپیوٹ — اگر بڑے کانٹیکسٹ ونڈوز یا ہائی کنکرنسی کا ارادہ ہو تو مضبوط سنگل GPUs یا ملٹی-GPU سیٹ اپ درکار ہو سکتے ہیں۔ مگر MoE فلیگ شپ کی نسبت ہوسٹنگ میں سادہ ہے۔
Mistral Large 3ڈینس ماڈل کے مماثل انفیرنس لاگت پر فی ٹوکن کہیں زیادہ مؤثر کپیسٹی (کیونکہ صرف ایکٹو ایکسپرٹس استعمال ہوتے ہیں)، جس سے اعلیٰ ریزننگ اور لانگ-کانٹیکسٹ رویہ ممکن ہوتا ہے۔سرونگ پیچیدگی: MoE میں ایکسپرٹ شارڈنگ، روٹنگ، اضافی میموری اور نیٹ ورک IO درکار — ڈینس ماڈل کے مقابلے میں اسکیل پر چلانا زیادہ پیچیدہ اور مہنگا۔

Mistral 3 بینچ مارکس — کارکردگی کیسی ہے؟

بینچ مارکس مکمل تصویر نہیں مگر مفید معیار ہیں۔ لانچ کے بعد متعدد آزاد اور تھرڈ پارٹی ایویلوایشنز سامنے آئے؛ منظرنامہ نفیس ہے: Mistral Large 3 کئی اسٹینڈرڈ لیڈر بورڈز (خصوصاً نان-ریزننگ اور ملٹی موڈل ٹاسکس) پر ٹاپ اوپن ماڈلز کو دھکیلتا یا میچ کرتا ہے، جبکہ Ministral سیریز چھوٹے پیمانے کے ٹاسکس کے لیے مضبوط پرائس-پرفارمنس دکھاتی ہے۔

جنرل NLP اور ریزننگ

ریزننگ اور لانگ-کانٹیکسٹ ٹاسکس میں مضبوط: کمیونٹی کمپیریزنز میں Mistral Large 3 ریزننگ ڈیٹاسیٹس (AIME، ایڈوانسڈ میتھ/کوڈ ریزننگ سوئٹس) اور نالج بینچ مارکس جیسے MMLU پر مسابقتی (اکثر ٹاپ اوپن سورس) اسکورز رپورٹ کرتا ہے۔ آزاد کراس-ٹاسک پیپرز اور لیڈر بورڈز جن میں Large 3 شامل تھا، اسے اوپن ویٹ ماڈلز میں ٹاپ یا ٹاپ کے قریب دکھاتے ہیں۔

کوڈ اور سافٹ ویئر انجینئرنگ

اوپن سورس کوڈنگ لیڈر بورڈز: ابتدائی LMArena اور SWE-Bench پوسٹنگز اشارہ کرتی ہیں کہ Mistral Large 3 کوڈنگ ٹاسکس کے لیے اوپن ماڈلز میں ٹاپ پرفارمر ہے — کچھ کمیونٹی رینکنگز نے اسے بعض کوڈنگ لیڈر بورڈز پر #1 اوپن سورس رکھا۔ تاہم، کلوزڈ ماڈلز (OpenAI، xAI، Google) اکثر پراپرائٹری لیڈر بورڈز میں مطلق ٹاپ-آف-مارکیٹ کوڈ صلاحیتوں میں آگے ہوتے ہیں۔

LMArena لیڈر بورڈ میں، Mistral Large 3 کی رینکنگ:

  • اوپن سورس نان-انفیرنس ماڈلز میں 2nd؛
  • اوپن سورس اوورآل ماڈلز میں 6th۔
آئٹمMistral 3 14B InstructMistral 3 8B InstructMistral 3 3B Instruct
ماڈل پوزیشننگہائی-پرفارمنس ایج فلیگ شپ (انٹرپرائز-گریڈ)متوازن اور انرجی-افیشنٹ مین اسٹریم ماڈلالٹرا-لائٹ ویٹ لوکل/ایج ماڈل
کل پیرامیٹرز≈ 14B (13.5B LM + 0.4B Vision)≈ 8.8B (8.4B LM + 0.4B Vision)≈ 3.8B (3.4B LM + 0.4B Vision)
وژن صلاحیتہائی-ریزولوشن امیج فہمی، ڈاکیومنٹ اینالیسسمیڈیم-ریزولوشن امیج Q&Aلائٹ ویٹ امیج ڈسکرپشن
ایجنٹ صلاحیتیںFunction Calling + JSON آؤٹ پٹFunction Calling + JSON آؤٹ پٹFunction Calling + JSON آؤٹ پٹ
کانٹیکسٹ ریزننگ صلاحیت⭐⭐⭐⭐⭐ (Strong)⭐⭐⭐⭐ (Medium-strong)⭐⭐⭐ (Lightweight)
میتھ ریزننگ (AIME25)0.8500.7870.721
ملٹی موڈل کارکردگی (MMMBench)8.498.087.83
انسٹرکشن فالوونگ (WildBench)68.566.856.8
علم کی فہمی (MMLU)0.7940.7610.652
میموری درکار (FP8)≈ 24 GB≈ 12 GB≈ 8 GB

Mistral 3 تک رسائی/آزمایش کیسے کریں (مرحلہ وار)

1)Hugging Face سے ڈاؤن لوڈ کریں اور چلائیں (weights + model cards)

  • Mistral آرگنائزیشن اور مخصوص ماڈل پیج پر جائیں (مثلاً mistralai/Mistral-Large-3-675B-Instruct-2512 یا Ministral 3 ماڈل پیجز) اور “Files & versions” / ماڈل کارڈ میں تجویز کردہ فارمیٹس (NVFP4/FP8/FP16) فالو کریں۔
  • عمومی ورک فلو:
    1. pip install transformers accelerate torch (یا vLLM جیسا رن ٹائم استعمال کریں)۔
    2. Hugging Face سے عین ماڈل ID کاپی کریں (ماڈل پیجز پر آفیشل ID اور ریکمینڈڈ فارمیٹس ہوتے ہیں)۔
    3. مثال (ایک کمپیکٹ Ministral ماڈل کے لیے — حقیقی رنز میں ٹھیک HF id استعمال کریں):
from transformers import AutoTokenizer, AutoModelForCausalLM  
tokenizer = AutoTokenizer.from_pretrained("mistralai/<model-id>")  
model = AutoModelForCausalLM.from_pretrained("mistralai/<model-id>",  
                                             device_map="auto",  
                                             torch_dtype="auto")
  1. Large 3 (MoE) کے لیے، وینڈر رن ٹائمز یا HF-inference اینڈپوائنٹس کو ترجیح دیں — براہ راست transformers لوڈنگ MoE ڈسٹری بیوشن کے لیے موزوں نہ ہو۔

2) مینیجد کلاوڈ اینڈ پوائنٹ استعمال کریں (تیز ترین، انفرا نہیں)

  • Amazon Bedrock: Mistral Large 3 اور Ministral 3 Bedrock میں شامل ہیں — آپ Bedrock کے ذریعے سرور لیس اینڈپوائنٹس بنا کر انہیں Bedrock API/SDK سے کال کر سکتے ہیں۔ انفراء آپس کے بغیر پروڈکشن ایپس کے لیے اچھا۔
  • IBM watsonx اور Azure Foundry: لانچ پارٹنرز کے طور پر اعلان — انٹرپرائز-گریڈ ہوسٹڈ رسائی اور کمپلائنس فیچرز۔
  • Mistral AI Studio: Mistral کی اپنی ہوسٹڈ پروڈکٹ برائے ماڈلز کے ساتھ ایکسپیریمنٹیشن۔

3) اگر خود ہوسٹ کریں تو وینڈر-آپٹیمائزڈ اسٹیکس استعمال کریں

  • NVIDIA: بہتر تھروپٹ اور لاگت کے لیے NVIDIA کے آپٹیمائزڈ رن ٹائمز اور FP8/NVFP4 ویریئنٹس استعمال کریں (NVIDIA نے Mistral 3 کے لیے ڈیو بلاگ میں آپٹیمائزیشنز شائع کی ہیں)۔ اگر Large 3 ہوسٹ کرنا ہو تو GB200/H200 کلاس ہارڈویئر استعمال کریں اور NVIDIA گائیڈنس فالو کریں۔
  • vLLM / MoE آگاہ رن ٹائمز: بہت سے گروپس کم لیٹنسی اور بہتر بیچنگ کے لیے vLLM یا MoE-aware انفیرنس اسٹیکس استعمال کرتے ہیں۔

4) تھرڈ پارٹی ہوسٹس / APIs

Modal، CometAPI اور دیگر پرووائیڈرز سادہ APIs یا pay-as-you-go اینڈپوائنٹس کے ذریعے ماڈل کال کرنے دیتے ہیں — پروٹو ٹائپنگ کے لیے وینڈر لاک-اِن سے بچتے ہوئے مفید۔

حدود، خطرات، اور بہترین طریقہ کار

معلوم حدود اور فیلئر موڈز

  • بینچ مارکس سب کچھ نہیں: رپورٹڈ لیڈر بورڈ پوزیشننگ مختلف ہو سکتی ہے؛ ٹاسک-اسپیسیفک ایویلوایشن اہم ہے۔
  • انسٹرکشن-ٹیوننگ ویریئنس: مختلف انسٹرکشن-ٹیونڈ ویریئنٹس (base / instruct / reasoning) مختلف رویے دے سکتے ہیں؛ درست انتخاب کریں۔
  • MoE کی ڈپلائمنٹ پیچیدگی: Mixture-of-Experts ماڈلز کو ڈپلائے اور ٹیون کرنا زیادہ پیچیدہ ہو سکتا ہے (روٹنگ، میموری لے آؤٹ، بیچنگ)۔ جہاں ممکن ہو وینڈر-ریکمینڈڈ رن ٹائمز اور کوانٹائزڈ فارمیٹس استعمال کریں۔

لاگت اور افادیت کے پہلو

  • Ministral 3 (3–14B): فی ٹوکن کم لاگت، کم قیمت GPUs یا کئی آن-پریم انسٹینسز کے ساتھ ممکن۔ کلائنٹ ایپس، موبائل بیک اینڈز، یا سخت لیٹنسی بَجٹس والی سروسز میں ایمبیڈ کرنے کے لیے اچھا۔
  • Mistral Large 3: مطلق وسائل کی ضرورت زیادہ، مگر اسپارز ایکٹیویشن ڈینس 675B ماڈل کے مقابلے میں فی ٹوکن ایکٹو کمپیوٹ کم کرتا ہے؛ وینڈر-آپٹیمائزڈ اسٹیکس (NVIDIA) لیٹنسی اور لاگت میں نمایاں کمی لا سکتے ہیں۔ اگر آپ کو ریزننگ/لانگ-کانٹیکسٹ فوائد درکار ہوں تو Large 3 مماثل ڈینس ماڈلز کی نسبت لاگت-موثر ہو جاتا ہے، کیونکہ وہ یکساں صلاحیت کے لیے کہیں زیادہ انفیرنس کمپیوٹ مانگتے ہیں۔

سیفٹی اور گورننس

اوپن لائسنسنگ + انٹرپرائز کنٹرولز: Apache 2.0 ویٹس وسیع استعمال کی اجازت دیتے ہیں؛ اس کے باوجود انٹرپرائزز کو چاہیے کہ سیفٹی لیئرز (فلٹرز، ہیومن-اِن-دی-لوپ چیکس، پروویننس) شامل کریں اور ڈومین-اسپیسیفک مس یوز منظرناموں کے لیے ریڈ ٹیمینگ کریں۔ پارٹنرشپس اور خبروں سے ظاہر ہوتا ہے کہ Mistral ذمہ دار رول آؤٹس کے لیے پارٹنرز کے ساتھ کام کر رہا ہے۔

بہترین طریقہ کار

  • اپنے ڈیٹا پر بینچ مارک کریں: اپنے پرامپٹس، ٹمپریچر سیٹنگز، اور پوسٹ-پروسسنگ کے ساتھ ایویلوایشن دہرائیں۔
  • ملٹی-ٹیئر انفیرنس استعمال کریں: سستے/تیز ٹاسکس کو ڈینس Ministral ماڈلز پر رُوٹ کریں اور بھاری کام کے لیے Large 3 محفوظ رکھیں۔
  • آپٹیمائزڈ فارمیٹس سے فائدہ اٹھائیں: وینڈر کے فراہم کردہ فارمیٹس اور کرنلز (NVFP4/Triton) استعمال کریں تاکہ لیٹنسی بہتر اور میموری فٹ پرنٹ کم ہو۔

حتمی رائے: 2025 میں Mistral 3 کہاں فِٹ ہوتا ہے؟

Mistral 3 اوپن سورس اور انٹرپرائز AI ایکو سسٹمز کے لیے ایک اسٹریٹیجک طور پر اہم ریلیز ہے۔ لچکدار لائسنسنگ اور ڈپلائمنٹ-فرینڈلی کمپیکٹ خاندان (Ministral 3) کو ہائی-کپیسٹی اسپارز فلیگ شپ (Mistral Large 3) کے ساتھ ملا کر، Mistral نے ایک ایسا ٹول کٹ فراہم کیا ہے جو ہوبی اِسٹ لوکل ڈیولپمنٹ سے لے کر مانگ والے انٹرپرائز ایجنٹ ورک لوڈز تک پھیلا ہوا ہے۔ وینڈر آپٹیمائزیشنز (خصوصاً NVIDIA کے ساتھ) اور اوپن فارمیٹس کا مطلب ہے کہ کارکردگی اور لاگت دونوں کو ورک لوڈ کے مطابق ٹیون کیا جا سکتا ہے۔ ابتدائی بینچ مارکنگ دکھاتی ہے کہ Mistral Large 3 اوپن ماڈل لیڈر بورڈز کے ٹاپ پر مقابلہ کرتا ہے جبکہ Ministral ویریئنٹس عملی ٹاسکس میں لاگت-افادیت کے لحاظ سے نمایاں ہیں۔

اگر آپ کی ترجیحات اوپن لائسنسنگ، ماڈلز کو لوکل/آف لائن چلانے کی صلاحیت، اور bot پر مسابقتی ریزننگ کارکردگی ہیں تو

آغاز کے لیے، مزید ماڈلز (جیسے Gemini 3 Pro) کی صلاحیتوں کو Playground میں ایکسپلور کریں اور تفصیلی ہدایات کے لیے API گائیڈ دیکھیں۔ رسائی سے پہلے، براہ کرم یقینی بنائیں کہ آپ CometAPI میں لاگ اِن ہیں اور API key حاصل کر چکے ہیں۔ CometAPI انٹیگریشن میں آپ کی مدد کے لیے سرکاری قیمت سے کہیں کم قیمت فراہم کرتا ہے۔

تیار ہیں؟→ آج ہی CometAPI پر سائن اپ کریں !

مزید پڑھیں

500+ ماڈلز ایک API میں

20% تک چھوٹ