ماڈلزقیمتانٹرپرائز
500+ AI ماڈل API، تمام ایک API میں۔ صرف CometAPI میں
ماڈلز API
ڈویلپر
فوری آغازدستاویزاتAPI ڈیش بورڈ
کمپنی
ہمارے بارے میںانٹرپرائز
وسائل
AI ماڈلزبلاگتبدیلیوں کا ریکارڈسپورٹ
خدمات کی شرائطرازداری کی پالیسی
© 2026 CometAPI · All rights reserved
Home/Models/Google/Gemini 3.1 Flash-Lite
G

Gemini 3.1 Flash-Lite

ان پٹ:$0.2/M
آؤٹ پٹ:$1.2/M
Gemini 3.1 Flash-Lite، Google کی Gemini 3 سیریز کا ایک انتہائی لاگت مؤثر اور کم لیٹینسی والا Tier-3 ماڈل ہے، جو زیادہ حجم والے پروڈکشن AI ورک فلو کے لیے ڈیزائن کیا گیا ہے جہاں استدلال کی زیادہ سے زیادہ گہرائی کے مقابلے میں تھروپٹ اور رفتار زیادہ اہم ہوتی ہیں۔ یہ ایک بڑی ملٹی موڈل کانٹیکسٹ ونڈو کو مؤثر انفرنس کارکردگی کے ساتھ یکجا کرتا ہے، اور اس کی لاگت زیادہ تر فلیگ شپ ہم منصب ماڈلز کے مقابلے میں کم ہے۔
نیا
تجارتی استعمال
Playground
خلاصہ
خصوصیات
قیمت
API
ورژن

📊 تکنیکی تفصیلات

مواصفاتتفصیلات
ماڈل فیملیGemini 3 (Flash-Lite)
کانٹیکسٹ ونڈوزیادہ سے زیادہ 1 million ٹوکن (ملٹی ماڈل متن، تصاویر، آڈیو، ویڈیو)
آؤٹ پٹ ٹوکن کی حدزیادہ سے زیادہ 64 K ٹوکن
ان پٹ کی اقساممتن، تصاویر، آڈیو، ویڈیو
کور آرکیٹیکچر کی بنیادGemini 3 Pro پر مبنی
ڈپلائمنٹ چینلزGemini API (Google AI Studio), Vertex AI
قیمت (پری ویو)~$0.25 فی 1M ان پٹ ٹوکن، ~$1.50 فی 1M آؤٹ پٹ ٹوکن
استدلال کے کنٹرولقابلِ ایڈجسٹ “thinking levels” (مثلاً کم سے زیادہ)

🔍 Gemini 3.1 Flash-Lite کیا ہے؟

Gemini 3.1 Flash-Lite، Google کی Gemini 3 سیریز کا کم لاگت والا فٹ پرنٹ ویریئنٹ ہے، جو بڑے پیمانے پر AI ورک لوڈز کے لیے موزوں بنایا گیا ہے—خاص طور پر جہاں لیٹینسی کم کرنا، فی ٹوکن لاگت گھٹانا، اور اعلیٰ تھروپٹ ترجیح ہو۔ یہ Gemini 3 Pro کی بنیادی ملٹی ماڈل استدلالی بیک بون کو برقرار رکھتے ہوئے ترجمہ، کلاسیفیکیشن، مواد کی ماڈریشن، UI جنریشن، اور اسٹرکچرڈ ڈیٹا سنتھیسِس جیسے بڑے پیمانے کے پروسیسنگ استعمالات کو ہدف بناتا ہے.

✨ نمایاں خصوصیات

  1. انتہائی بڑی کانٹیکسٹ ونڈو: 1 M ٹوکن تک ملٹی ماڈل ان پٹ ہینڈل کرتی ہے، جس سے طویل دستاویزات پر استدلال اور ویڈیو/آڈیو کانٹیکسٹ پروسیسنگ ممکن ہوتی ہے.
  2. کم لاگت عملدرآمد: پہلے کے Flash-Lite ماڈلز اور مسابقتی متبادل کے مقابلے میں فی ٹوکن لاگت نمایاں حد تک کم، جس سے ہائی والیوم استعمال ممکن ہوتا ہے.
  3. زیادہ تھروپٹ اور کم لیٹینسی: ~2.5× تیز time-to-first-token اور Gemini 2.5 Flash کے مقابلے میں آؤٹ پٹ تھروپٹ ~45 % تیز.
  4. ڈائنیمک ریزننگ کنٹرولز: “thinking levels” کے ذریعے ہر درخواست پر کارکردگی اور گہرے استدلال کے درمیان ٹیوننگ کی سہولت.
  5. ملٹی ماڈل سپورٹ: تصاویر، آڈیو، ویڈیو اور متن کی نیٹو پروسیسنگ ایک مشترکہ کانٹیکسٹ اسپیس میں.
  6. لچکدار API رسائی: Google AI Studio میں Gemini API اور انٹرپرائز Vertex AI ورک فلو کے ذریعے دستیاب.

📈 بینچ مارک کی کارکردگی

ذیل کے میٹرکس Gemini 3.1 Flash-Lite کی افادیت اور صلاحیت کو سابقہ Flash/Lite ویریئنٹس اور دیگر ماڈلز کے مقابلے میں ظاہر کرتے ہیں (مارچ 2026 کی رپورٹ):

بینچ مارکGemini 3.1 Flash-LiteGemini 2.5 Flash DynamicGPT-5 Mini
GPQA Diamond (سائنسی علم)86.9 %66.7 %82.3 %
MMMU-Pro (ملٹی ماڈل استدلال)76.8 %51.0 %74.1 %
CharXiv (پیچیدہ چارٹ استدلال)73.2 %55.5 %75.5 % (+python)
Video-MMMU84.8 %60.7 %82.5 %
LiveCodeBench (کوڈ استدلال)72.0 %34.3 %80.4 %
1M لانگ-کانٹیکسٹ12.3 %5.4 %سپورٹ نہیں ہے

یہ اسکورز ظاہر کرتے ہیں کہ Flash-Lite اپنی افادیت پر مبنی ڈیزائن کے باوجود مضبوط استدلال اور ملٹی ماڈل فہمی برقرار رکھتا ہے اور اہم بینچ مارکس میں اکثر پرانے Flash ویریئنٹس سے بہتر کارکردگی دکھاتا ہے.

⚖️ متعلقہ ماڈلز کے مقابلے

خصوصیتGemini 3.1 Flash-LiteGemini 3.1 Pro
فی ٹوکن لاگتکم (انٹری ٹائیر)زیادہ (پریمیئم)
لیٹینسی / تھروپٹاسپیڈ کے لیے آپٹمائزڈگہرائی کے ساتھ متوازن
استدلال کی گہرائیقابلِ ایڈجسٹ، نسبتاً کمزیادہ مضبوط گہرا استدلال
استعمال کے کیس کی توجہبَھاری پائپ لائنز، ماڈریشن، ترجمہمشن-کریٹیکل گہرا استدلال
کانٹیکسٹ ونڈو1 M ٹوکن1 M ٹوکن (وہی)

Flash-Lite کو پیمانے اور لاگت کے لیے تیار کیا گیا ہے؛ Pro اعلیٰ درستی اور گہرے استدلال کے لیے موزوں ہے۔

🧠 انٹرپرائز استعمالات

  • ہائی-والیوم ترجمہ اور ماڈریشن: کم لیٹینسی کے ساتھ زبان اور مواد کی حقیقی وقت پروسیسنگ پائپ لائنز.
  • بَھاری ڈیٹا ایکسٹریکشن اور کلاسیفیکیشن: بڑے کارپس کی پروسیسنگ مؤثر ٹوکن اکانومکس کے ساتھ۔
  • UI/UX جنریشن: ساختہ JSON، ڈیش بورڈ ٹیمپلیٹس، اور فرنٹ اینڈ اسکیفولڈنگ.
  • سمیولیشن پرامپٹنگ: طویل تعاملات میں منطقی اسٹیٹ ٹریکنگ۔
  • ملٹی ماڈل ایپلی کیشنز: ویڈیو، آڈیو، اور تصویر پر مبنی استدلال ایک متحدہ کانٹیکسٹ میں.

🧪 حدود

  • استدلال کی گہرائی اور تجزیاتی درستی پیچیدہ، مشن-کریٹیکل کاموں میں Gemini 3.1 Pro سے پیچھے رہ سکتی ہے. :
  • لانگ-کانٹیکسٹ فیوژن جیسے بینچ مارکس میں فلیگ شپ ماڈلز کے مقابلے مزید بہتری کی گنجائش موجود ہے.
  • ڈائنیمک ریزننگ کنٹرولز تیز رفتاری کے بدلے میں گہرائی کا سودا کرتے ہیں؛ ہر لیول پر یکساں معیار کی ضمانت نہیں۔

GPT-5.3 Chat (Alias: gpt-5.3-chat-latest) — جائزہ

GPT-5.3 Chat، OpenAI کا تازہ ترین پروڈکشن چیٹ ماڈل ہے، جو آفیشل API میں gpt-5.3-chat-latest اینڈ پوائنٹ کے طور پر دستیاب ہے اور ChatGPT کے روزمرہ مکالماتی تجربے کو پاور کرتا ہے۔ یہ ماڈل روزمرہ تعامل کے معیار کو بہتر بنانے پر مرکوز ہے—یعنی جوابات کو زیادہ رواں، زیادہ درست، اور بہتر کانٹیکسٹ کے مطابق بنانا—جبکہ GPT-5 فیملی کی مضبوط تکنیکی صلاحیتیں برقرار رکھتا ہے۔ :contentReference[oaicite:1]{index=1}


📊 تکنیکی تفصیلات

مواصفاتتفصیلات
ماڈل نام/عرفGPT-5.3 Chat / gpt-5.3-chat-latest
فراہم کنندہOpenAI
کانٹیکسٹ ونڈو128,000 ٹوکن
فی درخواست زیادہ سے زیادہ آؤٹ پٹ ٹوکن16,384 ٹوکن
نالج کٹ آفAugust 31, 2025
ان پٹ موڈیلٹیزمتن اور تصاویر (صرف وِژن)
آؤٹ پٹ موڈیلٹیزمتن
فنکشن کالنگسپورٹڈ
ساختہ آؤٹ پٹسپورٹڈ
سٹریمنگ جواباتسپورٹڈ
فائن ٹیوننگسپورٹڈ نہیں
ڈسٹلیشن / ایمبیڈنگزڈسٹلیشن سپورٹڈ نہیں؛ ایمبیڈنگز سپورٹڈ
معمول کے استعمال کے اینڈ پوائنٹسChat completions، Responses، Assistants، Batch، Realtime
فنکشن کالنگ اور ٹولزفنکشن کالنگ فعال؛ Responses API کے ذریعے ویب اور فائل سرچ سپورٹڈ

🧠 GPT-5.3 Chat کو منفرد کیا بناتا ہے

GPT-5.3 Chat، GPT-5 سلسلے میں چیٹ پر مرکوز صلاحیتوں کی تدریجی بہتری کی نمائندگی کرتا ہے۔ اس ویریئنٹ کا بنیادی مقصد پہلے کے ماڈلز (جیسے GPT-5.2 Instant) کے مقابلے میں زیادہ قدرتی، سیاق و سباق کے لحاظ سے مربوط، اور صارف دوست مکالماتی جوابات فراہم کرنا ہے۔ بہتریاں درج ذیل پر مرکوز ہیں:

  • زیادہ ڈائنامک، قدرتی ٹون جس میں غیر ضروری ڈسکلیمر کم اور زیادہ براہِ راست جوابات ہوں.
  • عام چیٹ مناظر میں بہتر کانٹیکسٹ فہمی اور مطابقت.
  • ملٹی ٹرن ڈائیلاگ، خلاصہ سازی، اور مکالماتی معاونت جیسے بھرپور چیٹ استعمالات کے ساتھ زیادہ ہموار انضمام.

GPT-5.3 Chat اُن ڈیویلپرز اور انٹرایکٹو ایپلی کیشنز کے لیے سفارش کردہ ہے جنہیں تازہ ترین مکالماتی بہتریاں درکار ہوں، بغیر اُن مخصوص گہرے استدلال کی سطح کے جو مستقبل کے “Thinking” یا “Pro” GPT-5.3 ویریئنٹس میں متوقع ہے۔


🚀 کلیدی خصوصیات

  • بڑی چیٹ کانٹیکسٹ ونڈو: 128K ٹوکن طویل گفتگو کی ہسٹری اور لانگ کانٹیکسٹ ٹریکنگ کو ممکن بناتا ہے. :contentReference[oaicite:17]{index=17}
  • بہتر جواب کا معیار: مکالماتی بہاؤ میں بہتری، غیر ضروری احتیاطی انکار یا غیر مددگار caveats میں کمی. :contentReference[oaicite:18]{index=18}
  • آفیشل API سپورٹ: چیٹ، بیچ پروسیسنگ، ساختہ آؤٹ پٹس اور ریئل ٹائم ورک فلو کے لیے مکمل سپورٹ.
  • ہمہ جہت ان پٹ سپورٹ: متن اور تصاویر قبول کرتا اور اُن کا سیاق سمجھتا ہے، ملٹی ماڈل چیٹ استعمالات کے لیے موزوں.
  • فنکشن کالنگ اور ساختہ آؤٹ پٹ: API کے ذریعے ساختہ اور انٹرایکٹو ایپلیکیشن پیٹرنز کی سہولت. :contentReference[oaicite:21]{index=21}
  • وسیع ایکو سسٹم مطابقت: v1/chat/completions، v1/responses، Assistants اور دیگر جدید OpenAI API انٹرفیسز کے ساتھ کام کرتا ہے.

📈 Typical Benchmarks & Behavior

📈 بینچ مارک کی کارکردگی

OpenAI اور آزاد رپورٹس حقیقی دنیا کی کارکردگی میں بہتری ظاہر کرتی ہیں:

میٹرکGPT-5.3 Instant بمقابلہ GPT-5.2 Instant
ویب سرچ کے ساتھ ہیلوسینیشن ریٹ−26.8%
سرچ کے بغیر ہیلوسینیشن ریٹ−19.7%
صارف کی طرف سے فلیگ کی گئی حقائق غلطیاں (ویب)~−22.5%
صارف کی طرف سے فلیگ کی گئی حقائق غلطیاں (اندرونی)~−9.6%

قابلِ ذکر بات یہ ہے کہ GPT-5.3 کی توجہ حقیقی دنیا کی مکالماتی کوالٹی پر ہے، اس لیے بینچ مارک اسکور میں بہتری (معیاری NLP میٹرکس وغیرہ) اتنی نمایاں نہیں—بہتریاں زیادہ تر صارف کے تجرباتی میٹرکس میں نظر آتی ہیں نہ کہ خام ٹیسٹ اسکورز میں.

صنعتی موازنے میں، GPT-5 فیملی کے چیٹ ویریئنٹس عام روزمرہ چیٹ کی مطابقت اور کانٹیکسٹ ٹریکنگ پر پہلے کے GPT-4 ماڈیولز سے بہتر جانے جاتے ہیں، اگرچہ مخصوص گہرے استدلال والے کاموں کے لیے پھر بھی “Pro” یا استدلال-آپٹمائزڈ اینڈ پوائنٹس موزوں ہو سکتے ہیں۔


🤖 استعمالات

GPT-5.3 Chat درج ذیل کے لیے موزوں ہے:

  • کسٹمر سپورٹ بوٹس اور مکالماتی معاونین
  • انٹرایکٹو ٹیوٹوریل یا تعلیمی ایجنٹس
  • خلاصہ سازی اور مکالماتی سرچ
  • اندرونی نالج ایجنٹس اور ٹیم چیٹ ہیلپرز
  • ملٹی ماڈل سوال و جواب (متن + تصاویر)

اس کا مکالماتی معیار اور API کی ہمہ جہتی اسے اُن انٹرایکٹو ایپلی کیشنز کے لیے موزوں بناتی ہے جو قدرتی ڈائیلاگ کو ساختہ آؤٹ پٹس کے ساتھ یکجا کرتی ہیں۔

🔍 حدود

  • سب سے گہرا استدلالی ویریئنٹ نہیں: مشن-کریٹیکل، اعلیٰ سطحی تجزیاتی گہرائی کے لیے آنے والے GPT-5.3 Thinking یا Pro ماڈلز زیادہ مناسب ہو سکتے ہیں.
  • ملٹی ماڈل آؤٹ پٹس محدود: اگرچہ ان پٹ تصاویر سپورٹڈ ہیں، لیکن مکمل تصویر/ویڈیو جنریشن یا بہت زیادہ ملٹی ماڈل آؤٹ پٹ ورک فلو اس ویریئنٹ کی ترجیح نہیں.
  • فائن ٹیوننگ سپورٹڈ نہیں: آپ اس ماڈل کو فائن ٹیون نہیں کر سکتے، تاہم سسٹم پرامپٹس کے ذریعے رویہ ہدایت کیا جا سکتا ہے۔

How to access Gemini 3.1 flash lite API

مرحلہ 1: API کلید کے لیے سائن اپ کریں

cometapi.com میں لاگ ان کریں۔ اگر آپ ہمارے صارف نہیں ہیں تو پہلے رجسٹر کریں۔ اپنے CometAPI کنسول میں سائن ان کریں۔ انٹرفیس کی رسائی کے لیے API key حاصل کریں۔ پرسنل سنٹر میں API ٹوکن پر “Add Token” پر کلک کریں، ٹوکن کی کلید حاصل کریں: sk-xxxxx اور جمع کریں۔

CometAPI کلید

مرحلہ 2: Gemini 3.1 flash lite API کو درخواستیں بھیجیں

API ریکویسٹ بھیجنے کے لیے “` gemini-3.1-flash-lite” اینڈ پوائنٹ منتخب کریں اور ریکویسٹ باڈی سیٹ کریں۔ ریکویسٹ میتھڈ اور ریکویسٹ باڈی ہماری ویب سائٹ کے API ڈاک سے حاصل کیے جائیں۔ ہماری ویب سائٹ آپ کی سہولت کے لیے Apifox ٹیسٹ بھی فراہم کرتی ہے۔ <YOUR_API_KEY> کو اپنے اکاؤنٹ کی اصل CometAPI key سے تبدیل کریں۔ base url ہے Gemini Generating Content

اپنا سوال یا درخواست content فیلڈ میں داخل کریں—اسی پر ماڈل ریسپانس دیتا ہے۔ جنریٹڈ جواب حاصل کرنے کے لیے API ریسپانس کو پروسیس کریں۔

مرحلہ 3: نتائج حاصل کریں اور تصدیق کریں

API ریسپانس کو پروسیس کر کے جنریٹڈ جواب حاصل کریں۔ پروسیسنگ کے بعد، API ٹاسک کی اسٹیٹس اور آؤٹ پٹ ڈیٹا کے ساتھ جواب دیتا ہے۔

اکثر پوچھے جانے والے سوالات

Gemini 3.1 Flash-Lite کن کاموں کے لیے سب سے زیادہ موزوں ہے؟

Gemini 3.1 Flash-Lite زیادہ حجم اور تاخیر کے لحاظ سے حساس ورک فلو کے لیے بہتر بنایا گیا ہے، جیسے ترجمہ، مواد کی نگرانی، درجہ بندی، UI/ڈیش بورڈ کی تیاری، اور simulation prompt pipelines، جہاں رفتار اور کم لاگت ترجیحات ہوں۔

Gemini 3.1 Flash-Lite کی context window اور output capability کیا ہے؟

Gemini 3.1 Flash-Lite متن، تصاویر، آڈیو، اور ویڈیو سمیت multimodal inputs کے لیے 1 million tokens تک کی بڑی context window کی حمایت کرتا ہے، اور 64 K tokens تک output فراہم کرتا ہے۔

Gemini 3.1 Flash-Lite کارکردگی اور لاگت میں Gemini 2.5 Flash کے مقابلے میں کیسا ہے؟

Gemini 2.5 Flash ماڈلز کے مقابلے میں، Gemini 3.1 Flash-Lite پہلی جواب دہی کے وقت میں تقریباً 2.5× زیادہ تیز ہے اور output throughput میں تقریباً 45 % زیادہ بہتری فراہم کرتا ہے، جبکہ input اور output دونوں کے لیے فی million tokens نمایاں طور پر سستا ہے۔ }

کیا Gemini 3.1 Flash-Lite adjustable reasoning depth کی حمایت کرتا ہے؟

جی ہاں — یہ reasoning یا “thinking” کی متعدد سطحیں (مثلاً minimal، low، medium، high) فراہم کرتا ہے تاکہ developers پیچیدہ کاموں میں رفتار اور گہری reasoning کے درمیان توازن قائم کر سکیں۔ :contentReference[oaicite:3]{index=3}

Gemini 3.1 Flash-Lite کی benchmark کے لحاظ سے عام مضبوطیاں کیا ہیں؟

GPQA Diamond (سائنسی علم) اور MMMU Pro (ملٹی موڈل سمجھ) جیسے benchmarks میں، Gemini 3.1 Flash-Lite پچھلے Flash-Lite ماڈلز کے مقابلے میں مضبوط اسکور حاصل کرتا ہے، جہاں سرکاری جائزوں میں GPQA تقریباً 86.9 % اور MMMU تقریباً 76.8 % ہے۔

میں API کے ذریعے Gemini 3.1 Flash-Lite تک کیسے رسائی حاصل کر سکتا ہوں؟

آپ enterprise integration کے لیے CometAPI کے ذریعے gemini-3.1-flash-lite-preview endpoint استعمال کر سکتے ہیں۔

مجھے Gemini 3.1 Flash-Lite اور Gemini 3.1 Pro میں سے کب انتخاب کرنا چاہیے؟

Flash-Lite کا انتخاب اس وقت کریں جب بڑے پیمانے کے کاموں کے لیے throughput، latency، اور cost ترجیحات ہوں؛ Pro کا انتخاب ان کاموں کے لیے کریں جن میں سب سے زیادہ reasoning depth، analytical accuracy، یا mission-critical comprehension درکار ہو۔

Gemini 3.1 Flash-Lite کے لیے خصوصیات

[ماڈل کا نام] کی اہم خصوصیات دریافت کریں، جو کارکردگی اور قابل استعمال کو بہتر بنانے کے لیے ڈیزائن کی گئی ہیں۔ جانیں کہ یہ صلاحیتیں آپ کے منصوبوں کو کیسے فائدہ پہنچا سکتی ہیں اور صارف کے تجربے کو بہتر بنا سکتی ہیں۔

Gemini 3.1 Flash-Lite کی قیمتیں

[ماڈل کا نام] کے لیے مسابقتی قیمتوں کو دریافت کریں، جو مختلف بجٹ اور استعمال کی ضروریات کے مطابق ڈیزائن کیا گیا ہے۔ ہمارے لچکدار منصوبے اس بات کو یقینی بناتے ہیں کہ آپ صرف اسی کے لیے ادائیگی کریں جو آپ استعمال کرتے ہیں، جس سے آپ کی ضروریات بڑھنے کے ساتھ ساتھ اسکیل کرنا آسان ہو جاتا ہے۔ دریافت کریں کہ [ماڈل کا نام] کیسے آپ کے پروجیکٹس کو بہتر بنا سکتا ہے جبکہ اخراجات کو قابو میں رکھتا ہے۔
Comet قیمت (USD / M Tokens)سرکاری قیمت (USD / M Tokens)رعایت
ان پٹ:$0.2/M
آؤٹ پٹ:$1.2/M
ان پٹ:$0.25/M
آؤٹ پٹ:$1.5/M
-20%

Gemini 3.1 Flash-Lite کے لیے نمونہ کوڈ اور API

Gemini 3.1 Flash-Lite کے لیے جامع نمونہ کوڈ اور API وسائل تک رسائی حاصل کریں تاکہ آپ کے انضمام کے عمل کو آسان بنایا جا سکے۔ ہماری تفصیلی دستاویزات قدم بہ قدم رہنمائی فراہم کرتی ہیں، جو آپ کو اپنے پروجیکٹس میں Gemini 3.1 Flash-Lite کی مکمل صلاحیت سے فائدہ اٹھانے میں مدد کرتی ہیں۔
POST
/v1/chat/completions
POST
/v1beta/models/{model}:{operator}
Python
JavaScript
Curl
from google import genai
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3.1-flash-lite-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

Python Code Example

from google import genai
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3.1-flash-lite-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

JavaScript Code Example

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const base_url = "https://api.cometapi.com/v1beta";
const model = "gemini-3.1-flash-lite-preview";
const operator = "generateContent";

const response = await fetch(`${base_url}/models/${model}:${operator}`, {
  method: "POST",
  headers: {
    "Content-Type": "application/json",
    Authorization: api_key,
  },
  body: JSON.stringify({
    contents: [
      {
        parts: [{ text: "Explain how AI works in a few words" }],
      },
    ],
  }),
});

const data = await response.json();
console.log(data.candidates[0].content.parts[0].text);

Curl Code Example

curl "https://api.cometapi.com/v1beta/models/gemini-3.1-flash-lite-preview:generateContent" \
  -H "Authorization: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [
      {
        "parts": [
          {
            "text": "Explain how AI works in a few words"
          }
        ]
      }
    ]
  }'

Gemini 3.1 Flash-Lite کے ورژن

Gemini 3.1 Flash-Lite کے متعدد سنیپ شاٹس کی وجوہات میں ممکنہ عوامل شامل ہوسکتے ہیں جیسے اپ ڈیٹس کے بعد آؤٹ پٹ میں تبدیلیاں جس کی وجہ سے مستقل مزاجی کے لیے پرانے سنیپ شاٹس کی ضرورت ہوتی ہے، ڈویلپرز کو ایڈاپٹیشن اور مائیگریشن کے لیے منتقلی کا وقت فراہم کرنا، اور عالمی یا علاقائی اینڈ پوائنٹس کے مطابق مختلف سنیپ شاٹس کا ہونا تاکہ صارف کے تجربے کو بہتر بنایا جاسکے۔ ورژنز کے درمیان تفصیلی فرق کے لیے براہ کرم سرکاری دستاویزات کا حوالہ دیں۔
ماڈل idتفصیلدستیابیدرخواست
gemini-3-1-flashخودکار طور پر تازہ ترین ماڈل کی طرف اشارہ کرتا ہے✅Gemini Generating Content
gemini-3-1-flash-previewآفیشل پری ویو✅Gemini Generating Content
gemini-3.1-flash-lite-preview-thinkingتھنکنگ ورژن✅Gemini Generating Content
gemini-3.1-flash-lite-thinkingتھنکنگ ورژن✅Gemini Generating Content

مزید ماڈلز

C

Claude Opus 4.7

ان پٹ:$4/M
آؤٹ پٹ:$20/M
ایجنٹس اور کوڈنگ کے لیے سب سے ذہین ماڈل
C

Claude Opus 4.6

ان پٹ:$4/M
آؤٹ پٹ:$20/M
Claude Opus 4.6، Anthropic کے “Opus” کلاس کا بڑا لسانی ماڈل ہے، جو فروری 2026 میں جاری کیا گیا۔ اسے علمی کام اور تحقیقی ورک فلوز کے لیے ایک بھروسہ مند مرکزی حل کے طور پر پیش کیا گیا ہے — اور یہ طویل سیاق میں استدلال، کئی مرحلوں پر مشتمل منصوبہ بندی، ٹولز کے استعمال (جن میں ایجنٹ پر مبنی سافٹ ویئر ورک فلوز بھی شامل ہیں)، اور کمپیوٹر کے استعمال سے متعلق کام جیسے خودکار سلائیڈ اور اسپریڈشیٹ کی تیاری کو بہتر بناتا ہے۔
A

Claude Sonnet 4.6

ان پٹ:$2.4/M
آؤٹ پٹ:$12/M
Claude Sonnet 4.6 ہمارا اب تک کا سب سے زیادہ قابل Sonnet ماڈل ہے۔ یہ کوڈنگ، کمپیوٹر کے استعمال، طویل سیاقی استدلال، ایجنٹ منصوبہ بندی، دانش پر مبنی کام، اور ڈیزائن کے حوالے سے ماڈل کی صلاحیتوں کا مکمل اپ گریڈ ہے۔ Sonnet 4.6 میں بیٹا مرحلے میں 1M ٹوکن کانٹیکسٹ ونڈو کی خصوصیت بھی ہے۔
O

GPT-5.4 nano

ان پٹ:$0.16/M
آؤٹ پٹ:$1/M
GPT-5.4 nano اُن کاموں کے لیے تیار کیا گیا ہے جن میں رفتار اور لاگت سب سے زیادہ اہمیت رکھتی ہیں، مثلاً درجہ بندی، ڈیٹا استخراج، رینکنگ، اور ذیلی ایجنٹس۔
O

GPT-5.4 mini

ان پٹ:$0.6/M
آؤٹ پٹ:$3.6/M
GPT-5.4 mini، GPT-5.4 کی صلاحیتوں کو ایک تیز تر، زیادہ مؤثر ماڈل میں لے آتا ہے جو زیادہ حجم کے ورک لوڈز کے لیے ڈیزائن کیا گیا ہے۔
Q

Qwen3.6-Plus

ان پٹ:$0.32/M
آؤٹ پٹ:$1.92/M
Qwen 3.6-Plus اب دستیاب ہے، جس میں کوڈ ڈیولپمنٹ کی بہتر صلاحیتیں اور ملٹی ماڈل شناخت اور استدلال میں بہتر کارکردگی شامل ہے، جس سے Vibe Coding کا تجربہ مزید بہتر ہو جاتا ہے۔

متعلقہ بلاگز

Gemini 3.1 Deep Think کیسے حاصل کریں
Mar 13, 2026

Gemini 3.1 Deep Think کیسے حاصل کریں

Gemini 3.1 Deep Think ایک اعلیٰ درجے کا استدلالی موڈ ہے جسے Google اور Google DeepMind نے تیار کیا ہے، جو AI نظاموں کو کثیر مرحلہ استدلال، سائنسی تجزیہ، اور پیچیدہ مسائل کے حل کی صلاحیت فراہم کرتا ہے۔ یہ فی الحال بنیادی طور پر Google AI Ultra سبسکرپشنز، Gemini app، اور ڈویلپر ٹولز مثلاً Gemini API اور AI Studio کے ذریعے دستیاب ہے۔
Google نے Gemini 3.1 Flash-Lite — ایک تیز، کم لاگت والا LLM — متعارف کرایا
Mar 5, 2026
gemini-3-1-flash-lite

Google نے Gemini 3.1 Flash-Lite — ایک تیز، کم لاگت والا LLM — متعارف کرایا

Google نے Gemini 3.1 Flash-Lite متعارف کرایا، جو Gemini 3 فیملی کا نیا ترین رکن ہے اور خاص طور پر ڈویلپر اور انٹرپرائز ورک لوڈز کے لیے ہائی تھروپٹ، کم لیٹنسی، اور لاگت مؤثر انجن کے طور پر ڈیزائن کیا گیا ہے۔ Google، Flash-Lite کو Gemini 3 لائن میں "سب سے تیز اور سب سے زیادہ لاگت مؤثر" ماڈل کے طور پر پیش کرتا ہے: ایک ہلکا پھلکا ویریئنٹ جو اسٹریمنگ انٹریکشنز، بڑے پیمانے پر بیک گراؤنڈ پروسیسنگ، اور ہائی فریکوئنسی پروڈکشن ٹاسکس (مثلاً ترجمہ، ایکسٹریکشن، UI جنریشن، اور بڑی مقدار میں درجہ بندی) کو اپنے Pro ہم منصبوں کے مقابلے میں کہیں کم قیمت پر فراہم کرنے کا ہدف رکھتا ہے۔