Kimi K2 Thinking Kimi K2 خاندان میں جدید ترین ایجنٹی استدلال کی قسم ہے: ایک بڑا، ماہرین کا مرکب (MoE) ماڈل جو مستقل، مرحلہ وار استدلال کرنے اور بیرونی ٹولز کو طویل کثیر مرحلہ ورک فلوز میں قابل اعتماد طریقے سے کال کرنے کے لیے تیار کیا گیا ہے۔ اس گائیڈ میں میں تازہ ترین عوامی معلومات کو اکٹھا کرتا ہوں، یہ وضاحت کرتا ہوں کہ KTMP2 کے ساتھ کس طرح مطابقت رکھتا ہے۔ فلیگ شپ ماڈلز (GPT-5 اور Claude Sonnet 4.5)، API کیسے کام کرتا ہے، مرحلہ وار سیٹ اپ اور قابل عمل نمونہ استدلال کا کام، قیمتوں پر غور، اور تجویز کردہ پروڈکشن کے بہترین طریقہ کار — کوڈ کی مثالوں کے ساتھ تاکہ آپ فوراً شروع کر سکیں۔
Kimi K2 سوچ کیا ہے اور سرخیوں میں کیوں ہے؟
سے Kimi K2 سوچ Moonshot AI سے تازہ ترین "تھنکنگ ایجنٹ" ریلیز ہے - ایک ٹریلین پیرامیٹر، مکسچر آف ایکسپرٹس (MoE) فیملی ممبر جو واضح طور پر تربیت یافتہ اور پرفارم کرنے کے لیے پیک کیا گیا ہے۔ طویل افق، کثیر مرحلہ استدلال خود مختار طور پر بیرونی ٹولز کو کال کرتے ہوئے (تلاش، ازگر پر عمل درآمد، ویب سکریپنگ، وغیرہ)۔ ریلیز (نومبر 2025 کے اوائل میں اعلان کیا گیا) نے تین وجوہات کی بنا پر توجہ مبذول کرائی ہے: (1) یہ اوپن ویٹ / اوپن لائسنس یافتہ ہے (ایک "ترمیم شدہ MIT" طرز کا لائسنس)، (2) یہ انتہائی طویل سیاق و سباق کو سپورٹ کرتا ہے (256k ٹوکن سیاق و سباق ونڈو)، اور (3) یہ نمایاں طور پر بہتر ہونے کا مظاہرہ کرتا ہے۔ ایجنٹ ٹول سے چلنے والے بینچ مارکس پر کارکردگی بمقابلہ کئی معروف بند سورس فرنٹیئر ماڈلز۔
Kimi K2 Thinking API اور ایکو سسٹم اوپن اے آئی طرز کی چیٹ کی تکمیل کے سیمنٹکس کے علاوہ واضح ساختی آؤٹ پٹس اور ٹول انووکیشن پیٹرن کی حمایت کرتا ہے۔ آپ چیٹ ہسٹری + ٹول سکیما بھیجتے ہیں۔ ماڈل چین کی سوچ کی نمائندگی کے ساتھ جواب دیتا ہے (اگر درخواست کی جائے) اور ساختی JSON کو آؤٹ پٹ کر سکتا ہے جو بیرونی ٹولنگ کو متحرک کرتا ہے۔ فراہم کنندگان ٹوکنز کو سٹریم کرنے اور انسانوں کا سامنا کرنے والے متن اور مشین کے قابل تجزیے کے قابل ٹول انووکیشن بلاک دونوں کو واپس کرنے کی صلاحیت کو ظاہر کرتے ہیں۔ یہ ایجنٹ لوپس کو نافذ کرنے کے قابل بناتا ہے: ماڈل → ٹول → مشاہدہ → ماڈل۔
سادہ الفاظ میں: K2 تھنکنگ کو صرف ایک سوال کا جواب دینے کے لیے نہیں بنایا گیا ہے، بلکہ بلند آواز سے سوچو, منصوبہ بنائیں، مددگار ہونے پر ٹولز کو کال کریں، نتائج کا معائنہ کریں، اور اگر ضرورت ہو تو سینکڑوں مراحل سے زیادہ - بغیر کسی تنزلی کے۔ یہ صلاحیت وہی ہے جسے مون شاٹ "مستحکم لانگ ہورائزن ایجنسی" کہتے ہیں۔
Kimi K2 Thinking کی بنیادی خصوصیات کیا ہیں؟
کلیدی ماڈل کی خصوصیات
- ماہرین کا مرکب (MoE) فن تعمیر ~1 ٹریلین پیرامیٹرز کے ساتھ (عام ترتیبات میں فی فارورڈ پاس 32B چالو)۔
- 256k ٹوکن سیاق و سباق کی ونڈو بہت طویل دستاویزات، کثیر ماخذ تحقیق، اور استدلال کی توسیعی زنجیروں کو سنبھالنے کے لیے۔
- مقامی INT4 کوانٹائزیشن / کوانٹائزیشن سے آگاہی کی تربیت، قیاس کی یادداشت میں بڑی کمی کو قابل بناتا ہے اور ناواقف سائز کے وزن کے مقابلے میں نمایاں رفتار۔
- بلٹ ان ٹول کالنگ اور ایک API جو فنکشنز/ٹولز کی فہرست قبول کرتا ہے۔ ماڈل خود مختار طور پر فیصلہ کرے گا کہ انہیں کب کال کرنا ہے اور نتائج پر اعادہ کرنا ہے۔
یہ عملی طور پر کیا قابل بناتا ہے۔
- گہری، مرحلہ وار استدلال (چن آف تھیٹ اسٹائل آؤٹ پٹس جو کال کرنے والے کے سامنے علیحدہ "استدلال کے مواد" کے طور پر سامنے آسکتے ہیں)۔
- مستحکم ملٹی سٹیپ ایجنٹ ورک فلو: ماڈل مقصد کی ہم آہنگی کو برقرار رکھ سکتا ہے۔ 200-300 ترتیب وار ٹول کالز، پرانے ماڈلز سے ایک قابل ذکر چھلانگ جو چند درجن قدموں کے بعد بڑھنے کا رجحان رکھتی ہے۔
- اوپن وزن + منظم APIاگر آپ کے پاس ہارڈ ویئر ہے تو آپ اسے مقامی طور پر چلا سکتے ہیں، یا اسے Moonshot/ کے ذریعے کال کر سکتے ہیں۔CometAPI اوپن اے آئی کے موافق API انٹرفیس کا استعمال کرتے ہوئے
Kimi K2 سوچ دو بنیادی میکانزم کے ذریعے ایجنٹ کے رویے کو بے نقاب کرتی ہے: (1) پاس کرنا اوزار فہرست تاکہ ماڈل فنکشنز کو کال کر سکے، اور (2) اندرونی استدلال کے ٹوکنز کو خارج کرنے والا ماڈل جو پلیٹ فارم متن کے طور پر ظاہر ہوتا ہے (یا فعال ہونے پر سوچ کی ساختی زنجیریں)۔ میں آگے مثالوں کے ساتھ تفصیل سے بیان کروں گا۔
میں Kimi K2 Thinking API کا استعمال کیسے کروں؟
شرائط
- API رسائی / اکاؤنٹ: Moonshot کے پلیٹ فارم (platform.moonshot.ai) یا معاون API ایگریگیٹر پر ایک اکاؤنٹ بنائیں (CometAPI سرکاری قیمتوں سے کم قیمتیں پیش کرتا ہے)۔ سائن اپ کرنے کے بعد آپ ڈیش بورڈ میں ایک API کلید بنا سکتے ہیں۔
- API کلیدی: اسے ماحولیاتی متغیرات یا اپنے خفیہ اسٹور میں محفوظ رکھیں۔
- کلائنٹ لائبریریاں: آپ معیاری HTTP (curl) یا OpenAI کے موافق SDKs استعمال کر سکتے ہیں۔ مون شاٹ کے پلیٹ فارم دستاویزات براہ راست مثالیں فراہم کرتے ہیں۔ اپنا Python ماحول ترتیب دیں۔ آپ کو OpenAI Python SDK کی ضرورت ہوگی، جو کہ کے ساتھ مطابقت رکھتا ہے۔ CometAPI API کیونکہ وہ دونوں OpenAI مطابقت کو برقرار رکھتے ہیں۔
اگر آپ کو مقامی/نجی ہوسٹنگ کی ضرورت ہے۔: ہارڈ ویئر (GPU/کلسٹر) جو MoE اور INT4 کو سپورٹ کرتا ہے—Moonshot پروڈکشن کی تعیناتیوں کے لیے vLLM، SGLang، اور دیگر انفرنس انجنوں کی تجویز کرتا ہے۔ ماڈل کے وزن خود میزبانی کے لیے Hugging Face پر دستیاب ہیں— بہت سی ٹیمیں ماڈل کے سائز کی وجہ سے میزبان API کو ترجیح دیتی ہیں۔
کم سے کم کال کا بہاؤ (اعلی سطح)
- چیٹ کی درخواست بنائیں (سسٹم + صارف کے پیغامات)۔
- اختیاری طور پر شامل کریں۔
tools(ایک JSON صف جو فنکشنز کو بیان کرتی ہے) تاکہ ماڈل کو خود مختار طور پر کال کرنے کے قابل بنایا جا سکے۔ - K2 تھنکنگ ویریئنٹ پر سیٹ ماڈل کے ساتھ چیٹ/کمپلیشن اینڈ پوائنٹ پر درخواست بھیجیں۔
- سٹریم اور/یا جوابی ٹکڑوں کو جمع کریں اور دونوں کو جمع کریں۔
reasoning_contentاور حتمی 'مواد'۔ - جب ماڈل ٹول کال کی درخواست کرتا ہے، تو ٹول کو اپنی طرف سے چلائیں، نتیجہ کو فالو اپ پیغام کے طور پر واپس کریں (یا فراہم کنندہ کے فنکشن ریٹرن پروٹوکول کے ذریعے) اور ماڈل کو جاری رہنے دیں۔
کیا API میں "reasoning_content" کو بے نقاب کیا گیا ہے؟
جی ہاں Kimi K2 Thinking واضح طور پر ایک معاون آؤٹ پٹ فیلڈ (عام طور پر نام reasoning_content) جس میں ماڈل کا انٹرمیڈیٹ ریجننگ ٹریس ہوتا ہے۔ فراہم کنندگان اور کمیونٹی ڈاکس اسٹریمنگ پیٹرن دکھاتے ہیں جو خارج ہوتے ہیں۔ reasoning_content ڈیلٹا سے الگ content ڈیلٹاس - جس سے انسانی پڑھنے کے قابل "سوچ" کے سلسلے کو پیش کرنا ممکن ہو جاتا ہے جب کہ حتمی جواب مرتب کیا جا رہا ہو۔ نوٹ: بڑے استدلال کے نشانات کے لیے سلسلہ بندی کی سفارش کی جاتی ہے کیونکہ ردعمل کا سائز بڑھتا ہے۔
cURL - پہلے، ایک کم سے کم چیٹ کی تکمیل، :
curl -X POST "https://api.cometapi.com/v1/chat/completions" \
-H "Authorization: Bearer $cometapi_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "kimi-k2-thinking",
"messages": [
{"role":"system","content":"You are a careful reasoning assistant. Show step-by-step reasoning."},
{"role":"user","content":"Outline a 5-step experiment to validate a micro-SaaS idea with $200 budget."}
],
"temperature": 0.2,
"max_tokens": 2048,
"stream": false
}'
یہ لوٹتا ہے۔
contentاور (سوچ ماڈلز کے لیے) areasoning_contentفیلڈ جسے آپ اسٹور یا اسٹریم کرسکتے ہیں۔
تھنکنگ موڈ کے لیے تجویز کردہ پیرامیٹرز
ذیل میں متعدد قدمی استدلال کے کاموں کے لیے ابتدائی پیرامیٹرز تجویز کیے گئے ہیں۔ آپ کے کام کے مطابق موافقت:
model: K2 تھنکنگ ویرینٹ چنیں (moonshotai/Kimi-K2-Thinkingorkimi-k2-thinking-turbo) - "سوچ" خاندان بے نقاب کرتا ہے۔reasoning_content.- Kimi-K2-تھنکنگ ماڈل کارڈ تجویز کرتے ہیں۔
temperature = 1.0سوچ کے دوران زیادہ سے زیادہ ریسرچ کے لیے تجویز کردہ بیس لائن کے طور پر۔ تحقیقی استدلال کے لیے زیادہ درجہ حرارت استعمال کریں، درست کاموں کے لیے کم۔ - زیادہ سے زیادہ ٹوکن / سیاق و سباق: سوچنے والے ماڈل بڑے اندرونی نشانات پیدا کر سکتے ہیں۔
max_tokensکافی زیادہ اور سٹریمنگ کو ترجیح دیتے ہیں۔ - سٹریمنگ: سٹریمنگ کو فعال کریں (
stream=True) استدلال اور حتمی مواد دونوں کو بتدریج پیش کرنا۔ - ٹول سکیما: شامل a
tools/functionsدستیاب افعال کو بیان کرنے والی صف؛ K2 خود مختاری سے فیصلہ کرے گا کہ انہیں کب کال کرنا ہے۔ واضح فراہم کریں۔descriptionاور مبہم کالوں سے بچنے کے لیے دلائل کے لیے سخت JSON اسکیمے۔
میں K2 تھنکنگ کے ساتھ ٹول کالنگ کو کیسے فعال اور استعمال کروں؟
شامل کریں a tools درخواست کے جسم میں صف۔ ہر آلے کی وضاحت کی گئی ہے:
name: سٹرنگ، منفرد ٹول شناخت کنندہ۔description: ماڈل کی مختصر وضاحت۔parameters: JSON اسکیما جس میں متوقع دلائل کی تفصیل ہے۔
جب ماڈل کسی ٹول کو کال کرنے کا فیصلہ کرتا ہے تو یہ ٹول انوکیشن آبجیکٹ کو خارج کرے گا (اکثر ساختی ٹوکن کے طور پر)۔ آپ کے رن ٹائم کو اس ٹول (سرور سائیڈ) پر عمل کرنا چاہیے، آؤٹ پٹ کیپچر کرنا چاہیے، اور اسے ٹول رسپانس میسج کے طور پر فیڈ کرنا چاہیے تاکہ ماڈل استدلال جاری رکھ سکے۔
مرحلہ وار گائیڈ
K2 Thinking OpenAI فنکشن کالنگ کی طرح ایک فنکشن/ٹول اسکیما کو سپورٹ کرتا ہے لیکن ماڈل ختم ہونے تک لوپنگ کے لیے واضح سپورٹ کے ساتھ (یہ متعدد ٹول کالز کی درخواست کر سکتا ہے)۔ پیٹرن یہ ہے:
- ٹول اسکیموں کی وضاحت کریں (نام، تفصیل، پیرامیٹرز کا JSON اسکیما)۔
- پاس
toolsچیٹ مکمل کرنے والی کال پر۔ - پر مشتمل ہر جواب پر
tool_calls، درخواست کردہ ٹول پر عمل کریں اور ٹول آؤٹ پٹس کو پیغامات میں بطور شامل کریں۔role: "tool". - اس وقت تک دہرائیں جب تک کہ ماڈل معمول کی تکمیل نہ کرے۔
ٹول کی درخواست کو فعال کریں (مثال کا نمونہ)
جب آپ چاہتے ہیں کہ ماڈل ٹولز کو کال کرے تو درخواست میں ٹول اسکیما فراہم کریں، جیسے، web_search, code_executor، انہیں درخواست میں شامل کریں، اور ماڈل کو ہدایت دیں کہ انہیں کیسے استعمال کیا جائے۔
{
"model": "kimi-k2-thinking",
"messages": [{"role":"system","content":"You can call available tools when needed. Return a JSON tool call when you want to invoke external code."},
{"role":"user","content":"Find the latest CPU microarchitecture benchmarks for RISC-V and summarize differences."}],
"tools": [
{
"name": "web_search",
"description": "Performs a web query and returns top results as JSON",
"input_schema": {"type":"object","properties":{"q":{"type":"string"}}}
}
],
"temperature": 0.1
}
ماڈل ایک کے ساتھ جواب دے سکتا ہے۔ tool_call اعتراض ہے کہ آپ کے ایجنٹ کے رن ٹائم کا پتہ لگانا اور رجسٹرڈ ٹول کی طرف جانا چاہیے۔
یہ پیٹرن ٹول-انووک → ٹول-رن → ماڈل-کنٹیو کے من مانی طور پر گہرے سلسلے کی حمایت کرتا ہے، یہی وجہ ہے کہ Kimi K2 Thinking اپنے ڈیزائن میں بہت سی ترتیب وار کالوں پر استحکام پر زور دیتا ہے۔
Kimi K2 Thinking API کی قیمت کیا ہے؟
آفیشل مون شاٹ (کیمی) پلیٹ فارم کی فہرست دو اہم قیمت کے اختتامی نکات Kimi K2 سوچ کے لیے:
- kimi-k2-سوچ (معیاری) - ان پٹ ٹوکنز: $0.60 / 1M (کیشے مس ٹیر) اور $0.15 / 1M (کیشے سے متاثرہ درجے)؛ آؤٹ پٹ ٹوکن: $2.50 / 1M.
- kimi-k2-thinking-turbo (تیز رفتار) - اعلی تاخیر/تھرو پٹ درجے: ان پٹ: $1.15 / 1M; پیداوار: $8.00 / 1M (پلیٹ فارم / پارٹنر صفحات اسے دہرائیں)۔
CometAPI قیمت کے لحاظ سے ایک فائدہ ہے جیسے: بہت کم ان پٹ ریٹ اور نسبتاً اعلیٰ درجے کے ماڈلز سے کم فی آؤٹ پٹ ٹوکن کی شرح — علاوہ آن بورڈنگ کے لیے مفت ٹرائل ٹوکن:
| ماڈل | ان پٹ ٹوکنز | آؤٹ پٹ ٹوکنز |
|---|---|---|
| kimi-k2-thinking-turbo | $2.20 | $15.95 |
| kimi-k2-سوچ | $1.10 | $4.40 |
لاگت کے تحفظات
- لمبے سیاق و سباق (128K–256K ٹوکنز) اور وسیع ٹول کال چینز ٹوکن کی کھپت کو بڑھاتے ہیں، لہذا جب لاگت کی اہمیت ہو تو وربوز انٹرمیڈیٹس کو کم کرنے کے لیے اشارے اور ٹول کے تعاملات کو ڈیزائن کریں۔
- بہت سے ٹول کے نتائج پیدا کرنے والے ایجنٹی بہاؤ کو چلانے سے آؤٹ پٹ ٹوکن بلوں میں عام سنگل ٹرن چیٹ سے زیادہ اضافہ ہو سکتا ہے۔ اس کے مطابق بجٹ کی نگرانی اور نگرانی کریں۔
بینچ مارکس کا موازنہ: Kimi K2 Thinking بمقابلہ GPT-5 بمقابلہ Claude Sonnet 4.5
ساتھ والے بینچ مارکس ایک اہم تصویر دکھاتے ہیں: K2 سوچ outperforms GPT-5 اور Anthropic's Claude Sonnet 4.5 پر بہت سے ٹول فعال اور ایجنٹ بینچ مارکس (مثال کے طور پر، BrowseComp اور Tool-enabled HLE متغیرات)، جبکہ GPT-5 کچھ صرف ٹیکسٹ یا میڈیکل بینچ مارکس پر مضبوط رہتا ہے (مثال کے طور پر، مون شاٹ کے رپورٹ کردہ رنز میں ہیلتھ بینچ)۔

takeaway ہے: Kimi K2 سوچ ایک مسابقتی ہے۔ ایجنٹ ماڈل - یہ استدلال کے کاموں پر سبقت رکھتا ہے جو ٹول انٹرلیونگ اور طویل سیاق و سباق سے فائدہ اٹھاتا ہے۔ یہ یکساں طور پر GPT-5 اور کو شکست نہیں دیتا ہے۔ کلاڈ سونیٹ 4.5 ہر ایک بینچ مارک پر (خاص طور پر کچھ خصوصی یا علم سے متعلق بھاری کام) لیکن بہت سے ایجنٹ / براؤزنگ / طویل افق ٹیسٹوں پر یہ اہم نتائج کی اطلاع دیتا ہے۔ تاہم، Kimi k2 سوچ کی کم کال لاگت اور اوپن سورس نوعیت اسے لاگت کی تاثیر کا حقیقی بادشاہ بناتی ہے۔
Kimi K2 Thinking بمقابلہ دوسرے ماڈلز کا انتخاب کب کریں۔
- Kimi K2 سوچ کا انتخاب کریں۔ جب آپ کے کام کے لیے استدلال کی لمبی زنجیریں، بہت سے ٹول کالز، یا بہت بڑے سیاق و سباق (کوڈ بیس، لمبی دستاویزات) کے گہرے تجزیہ کی ضرورت ہوتی ہے۔
- GPT-5 کا انتخاب کریں۔ جب آپ کو سخت ترین ملٹی موڈل انضمام، وسیع تھرڈ پارٹی ایکو سسٹم سپورٹ، یا مخصوص OpenAI ٹولز اور ایجنٹ فریم ورک کی ضرورت ہو۔
- کلاڈ سونیٹ 4.5 کا انتخاب کریں۔ کام کے بوجھ کے لیے جو کوڈ میں ترمیم کی درستگی، ڈیٹرمنسٹک ایڈیٹنگ ورک فلوز اور اینتھروپک کے حفاظتی ٹول چین پر زور دیتے ہیں۔
| میٹرک | Kimi K2 سوچ رہی ہے۔ | GPT-5 (ہائی) | کلاڈ سونیٹ 4.5 | DeepSeek-V3.2 |
| HLE (ڈبلیو/ ٹولز) | 44.9 | 41.7 | 32 | 20.3 |
| HLE ہیوی موڈ | 51 | 42 | - | - |
| AIME25 (w/ python) | 99.1٪ | 99.6٪ | 100٪ | 58.1٪ |
| GPQA | 84.5 | 85.7 | 83.4 | 79.9 |
| براؤز کمپ | 60.2 | 54.9 | 24.1 | 40.1 |
| فریمز | 87 | 86 | 85 | 80.2 |
| SWE- بنچ کی تصدیق ہو گئی۔ | 71.3٪ | 74.9٪ | 77.2٪ | 67.8٪ |
| لائیو کوڈ بینچ | 83.1٪ | 87.0٪ | 64.0٪ | 74.1٪ |
| سیاق و سباق کی کھڑکی | 256 k ٹوکن | 400 k ٹوکن | 200 k ٹوکن | 128 k ٹوکن |
| ان پٹ قیمتوں کا تعین | $0.60 / 1 M | $1.25 / 1 M | $3.00 / 1 M | $0.55 / 1 M |
| آؤٹ پٹ قیمتوں کا تعین | $2.50 / 1 M | $10.00 / 1 M | $15.00 / 1 M | $2.19 / 1 M |
بہترین طریقوں
- اسٹریم استدلال: صارف کا سامنا کرنے والی ایپس کے لیے سٹریمڈ کا استعمال کرتے ہوئے "سوچنے والا" UI دکھاتا ہے۔
reasoning_content. سلسلہ بندی تاخیر کو کم کرتی ہے اور بھاری پے لوڈ سے بچتی ہے۔ () - اسکیما فرسٹ ٹولز: مبہم کالوں اور تجزیہ کی غلطیوں کو کم کرنے کے لیے ٹولز کے لیے سخت JSON اسکیموں کی وضاحت کریں۔
- چیک پوائنٹ سیاق و سباق کا استعمال: ایکٹو پرامپٹ میں بہت زیادہ ٹریس ہسٹری کو ایمبیڈ کرنے کے بجائے ماضی کے استدلال کے نشانات کو الگ طویل مدتی میموری اسٹور میں رکھیں۔ صرف متعلقہ حصوں کو دوبارہ متعارف کرانے کے لیے بازیافت کا استعمال کریں۔
- مانیٹرنگ اور گارڈریلز: دونوں لاگ ان کریں۔
reasoning_contentاور حتمیcontentبہاؤ، فریب کاری، اور غلط استعمال کی تشخیص کرنے کے لیے۔ حساسیت کی بنیاد پر ترمیم یا صارف کی رضامندی پر غور کریں۔
نتیجہ
Kimi K2 Thinking مضبوط، طویل افق ایجنسی کی طرف K2 لائن کا ایک بڑا ارتقاء ہے۔ API جان بوجھ کر OpenAI/Anthropic کلائنٹ پیٹرن کے ساتھ مطابقت رکھتا ہے اور ایپس میں ایجنٹی استدلال کو ضم کرنے کے لیے ایک عملی راستہ فراہم کرتا ہے جبکہ ڈویلپرز کو ٹول کال سطح پر کنٹرول فراہم کرتا ہے۔
اگر آپ جلدی سے تجربہ کرنا چاہتے ہیں تو استعمال کریں۔ Kimi K2 Thinking API اور استعمال کرنا شروع کرو! شروع کرنے کے لیے، میں ماڈل کی صلاحیتوں کو دریافت کریں۔ کھیل کے میدان اور مشورہ کریں API گائیڈ تفصیلی ہدایات کے لیے۔ رسائی کرنے سے پہلے، براہ کرم یقینی بنائیں کہ آپ نے CometAPI میں لاگ ان کیا ہے اور API کلید حاصل کر لی ہے۔ CometAPI آپ کو انضمام میں مدد کے لیے سرکاری قیمت سے کہیں کم قیمت پیش کریں۔
جانے کے لیے تیار ہیں؟→ CometAPI کے لیے آج ہی سائن اپ کریں۔ !
اگر آپ AI پر مزید ٹپس، گائیڈز اور خبریں جاننا چاہتے ہیں تو ہمیں فالو کریں۔ VK, X اور Discord!
