النماذجالأسعارالمؤسسة
أكثر من 500 واجهة برمجة تطبيقات لنماذج الذكاء الاصطناعي، الكل في واجهة واحدة. فقط في CometAPI
واجهة برمجة التطبيقات للنماذج
مطور
البدء السريعالتوثيقلوحة تحكم API
الشركة
من نحنالمؤسسة
الموارد
نماذج الذكاء الاصطناعيمدونةالسجل التاريخي للتغييراتالدعم
شروط الخدمةسياسة الخصوصية
© 2026 CometAPI · All rights reserved
Home/Models/Google/Gemini 3.1 Flash-Lite
G

Gemini 3.1 Flash-Lite

مدخل:$0.2/M
الإخراج:$1.2/M
Gemini 3.1 Flash-Lite هو نموذج من المستوى الثالث فعّال للغاية من حيث التكلفة ومنخفض الكمون ضمن سلسلة Gemini 3 من Google، ومصمم لسير عمل ذكاء اصطناعي إنتاجي عالي الحجم حيث تكون الإنتاجية والسرعة أهم من الحد الأقصى لعمق الاستدلال. يجمع بين نافذة سياق كبيرة متعددة الوسائط وأداء استدلالي فعّال، وبتكلفة أقل من معظم النظائر الرائدة.
جديد
الاستخدام التجاري
Playground
نظرة عامة
الميزات
التسعير
API
الإصدارات

📊 المواصفات الفنية

SpecificationDetails
عائلة النموذجGemini 3 (Flash-Lite)
نافذة السياقحتى 1 مليون رمز (نص متعدد الوسائط، صور، صوت، فيديو)
الحد الأقصى لرموز الإخراجحتى 64 K رمز
أنواع الإدخالنصوص، صور، صوت، فيديو
الأساس المعماريمبني على Gemini 3 Pro
قنوات النشرGemini API (Google AI Studio)، Vertex AI
التسعير (معاينة)~$0.25 لكل 1M رمز إدخال، ~$1.50 لكل 1M رمز إخراج
ضوابط الاستدلالمستويات «التفكير» قابلة للضبط (مثلاً: من أدنى إلى مرتفع)

🔍 ما هو Gemini 3.1 Flash-Lite؟

Gemini 3.1 Flash-Lite هو نسخة ذات بصمة منخفضة التكلفة من سلسلة Gemini 3 من Google، مُحسَّنة لـ أعباء عمل الذكاء الاصطناعي الضخمة على نطاق واسع—خاصة عندما تكون أولوية لتقليل زمن الاستجابة، وخفض تكلفة الرمز، وتحقيق معدل مرور عالٍ. يحتفظ بالعمود الفقري للاستدلال متعدد الوسائط الخاص بـ Gemini 3 Pro مع استهداف حالات استخدام المعالجة بالجملة مثل الترجمة، والتصنيف، وإدارة المحتوى، وتوليد واجهات المستخدم، وتركيب البيانات المهيكلة.

✨ الميزات الرئيسية

  1. نافذة سياق فائقة الاتساع: تتعامل مع ما يصل إلى 1 M من الرموز لمدخلات متعددة الوسائط، ما يتيح الاستدلال على الوثائق الطويلة ومعالجة سياقات الفيديو/الصوت.
  2. تنفيذ عالي الكفاءة من حيث التكلفة: تكلفة أقل لكل رمز مقارنة بنماذج Flash-Lite الأقدم والمنافسين، ما يمكّن الاستخدام عالي الحجم.
  3. معدل مرور عالٍ وزمن استجابة منخفض: وقت إلى أول رمز أسرع بحوالي ~2.5× وإنتاجية إخراج أسرع بنحو ~45 % مقارنة بـ Gemini 2.5 Flash.
  4. ضوابط تفكير ديناميكية: تسمح «مستويات التفكير» للمطورين بضبط الأداء مقابل الاستدلال الأعمق لكل طلب.
  5. دعم متعدد الوسائط: معالجة أصلية للصور والصوت والفيديو والنص ضمن مساحة سياق موحدة.
  6. وصول مرن عبر واجهة برمجة التطبيقات: متاح عبر Gemini API في Google AI Studio وتدفقات عمل Vertex AI المؤسسية.

📈 أداء المقاييس

تعرض المقاييس التالية كفاءة وقدرة Gemini 3.1 Flash-Lite مقارنة بإصدارات Flash/Lite السابقة ونماذج أخرى (أُبلغ عنها في مارس 2026):

BenchmarkGemini 3.1 Flash-LiteGemini 2.5 Flash DynamicGPT-5 Mini
GPQA Diamond (معرفة علمية)86.9 %66.7 %82.3 %
MMMU-Pro (استدلال متعدد الوسائط)76.8 %51.0 %74.1 %
CharXiv (استدلال مخططات معقدة)73.2 %55.5 %75.5 % (+python)
Video-MMMU84.8 %60.7 %82.5 %
LiveCodeBench (استدلال برمجي)72.0 %34.3 %80.4 %
سياق طويل 1M12.3 %5.4 %غير مدعوم

تشير هذه النتائج إلى أن Flash-Lite يحافظ على استدلال تنافسي وفهم متعدد الوسائط حتى مع تصميمه الموجه إلى الكفاءة، وغالباً ما يتفوق على إصدارات Flash الأقدم عبر مقاييس رئيسية.

⚖️ المقارنة مع النماذج ذات الصلة

FeatureGemini 3.1 Flash-LiteGemini 3.1 Pro
التكلفة لكل رمزأقل (فئة دخول)أعلى (فئة متميزة)
الكمون/الإنتاجيةمحسّنة للسرعةمتوازنة مع العمق
عمق الاستدلالقابل للتعديل، لكنه أقل عمقاًاستدلال عميق أقوى
تركيز حالات الاستخداممسارات ضخمة، الإشراف، الترجمةمهام استدلال حرجة للمهام
نافذة السياق1 M رمز1 M رمز (نفسها)

Flash-Lite مُصمم للتوسع والتكلفة؛ Pro مخصص للاستدلال العميق عالي الدقة.

🧠 حالات استخدام مؤسسية

  • ترجمة وإشراف عاليان على الحجم: قنوات لغة ومحتوى آنية بزمن استجابة منخفض.
  • استخراج بيانات وتصنيف بالجملة: معالجة مجموعات ضخمة بكفاءة اقتصادية للرموز.
  • توليد واجهات UI/UX: JSON مهيكل، قوالب لوحات معلومات، وهياكل الواجهة الأمامية.
  • محاكاة الحوارات: تتبع الحالة المنطقية عبر تفاعلات ممتدة.
  • تطبيقات متعددة الوسائط: استدلال مُعزز بالفيديو والصوت والصور ضمن سياقات موحدة.

🧪 القيود

  • قد يتأخر عمق الاستدلال والدقة التحليلية عن Gemini 3.1 Pro في المهام المعقدة والحرجة. :
  • تُظهر نتائج مقاييس مثل دمج السياق الطويل مجالاً للتحسين مقارنة بالنماذج الرائدة.
  • ضوابط التفكير الديناميكية توازن بين السرعة والشمول؛ ليست كل المستويات تضمن نفس جودة المخرجات.

GPT-5.3 Chat (Alias: gpt-5.3-chat-latest) — نظرة عامة

GPT-5.3 Chat هو أحدث نموذج محادثة إنتاجي من OpenAI، يُقدَّم عبر نقطة النهاية gpt-5.3-chat-latest في الواجهة الرسمية ويُشغّل تجربة ChatGPT اليومية. يركز على تحسين جودة التفاعل اليومي—لجعل الردود أكثر سلاسة ودقة وسياقية—مع الحفاظ على قدرات تقنية قوية موروثة من عائلة GPT-5 الأوسع. :contentReference[oaicite:1]{index=1}


📊 المواصفات الفنية

SpecificationDetails
اسم/معرّف النموذجGPT-5.3 Chat / gpt-5.3-chat-latest
المزوّدOpenAI
نافذة السياق128,000 رمز
الحد الأقصى لرموز الإخراج لكل طلب16,384 رمز
حدّ المعرفة31 أغسطس 2025
أنماط الإدخالنص وصورة (رؤية فقط)
أنماط الإخراجنص
استدعاء الدوالمدعوم
مخرجات مهيكلةمدعومة
استجابات متدفقةمدعومة
التخصيص بالتدريبغير مدعوم
التقطير/التضميناتالتقطير غير مدعوم؛ التضمينات مدعومة
نقاط النهاية الشائعةChat completions, Responses, Assistants, Batch, Realtime
استدعاء الدوال والأدواتاستدعاء الدوال مفعّل؛ يدعم بحث الويب والملفات عبر Responses API

🧠 ما الذي يميز GPT-5.3 Chat

يمثل GPT-5.3 Chat تحسيناً تدريجياً لقدرات المحادثة في سلالة GPT-5. الهدف الأساسي لهذا الإصدار هو تقديم ردود محادثية أكثر طبيعية وتماسكاً سياقياً وملاءمة للمستخدم مقارنة بالنماذج السابقة مثل GPT-5.2 Instant. تتركز التحسينات حول:

  • نبرة ديناميكية وطبيعية مع عدد أقل من التحفظات غير المفيدة وإجابات أكثر مباشرة.
  • فهم سياقي وملاءمة أفضل في سيناريوهات الدردشة الشائعة.
  • دمج أكثر سلاسة مع حالات استخدام الدردشة الثرية بما في ذلك الحوار متعدد الأدوار، والتلخيص، والمساعدة المحادثية.

يُنصح باستخدام GPT-5.3 Chat للمطورين والتطبيقات التفاعلية التي تحتاج إلى أحدث تحسينات المحادثة دون عمق الاستدلال المتخصص لإصدارات “Thinking” أو “Pro” من GPT-5.3 القادمة.


🚀 الميزات الرئيسية

  • نافذة سياق كبيرة للدردشة: تمكن سعة 128K الرمزية من تاريخ محادثة غني وتتبع سياق طويل. :contentReference[oaicite:17]{index=17}
  • تحسين جودة الاستجابة: تدفق محادثي محسّن مع قدر أقل من التحفظات غير الضرورية أو الرفض الحذر المفرط. :contentReference[oaicite:18]{index=18}
  • دعم رسمي عبر الواجهة البرمجية: نقاط نهاية كاملة للدردشة والمعالجة الدفعية والمخرجات المهيكلة وتدفقات العمل الآنية.
  • دعم إدخال متعدد الاستخدامات: يقبل النصوص والصور ويؤطّرها سياقياً، مناسب لحالات استخدام الدردشة متعددة الوسائط.
  • استدعاء دوال ومخرجات مهيكلة: يتيح أنماط تطبيقات مهيكلة وتفاعلية عبر الواجهة البرمجية. :contentReference[oaicite:21]{index=21}
  • توافق واسع مع المنظومة: يعمل مع v1/chat/completions وv1/responses وAssistants وغيرها من واجهات OpenAI الحديثة.

📈 السلوك والمقاييس النموذجية

📈 أداء المقاييس

تُظهر تقارير OpenAI وتقارير مستقلة تحسناً في الأداء الواقعي:

MetricGPT-5.3 Instant vs GPT-5.2 Instant
معدل الهلوسة مع بحث الويب−26.8%
معدل الهلوسة بدون بحث−19.7%
أخطاء事实ية مبلّغ عنها من المستخدمين (الويب)~−22.5%
أخطاء事实ية مبلّغ عنها من المستخدمين (داخلي)~−9.6%

جدير بالذكر أن تركيز GPT-5.3 على جودة المحادثة في العالم الحقيقي يعني أن تحسينات درجات المقاييس (مثل مقاييس NLP المعيارية) أقل بروزاً في هذا الإصدار — إذ تظهر التحسينات بوضوح أكبر في مقاييس تجربة المستخدم بدلاً من درجات الاختبارات الخام.

في مقارنات الصناعة، تُعرف إصدارات محادثة عائلة GPT-5 بتفوقها على وحدات GPT-4 الأقدم في ملاءمة الدردشة اليومية وتتبع السياق، رغم أن مهام الاستدلال المتخصصة قد تظل تفضّل إصدارات “Pro” أو نقاط نهاية محسّنة للاستدلال.


🤖 حالات الاستخدام

GPT-5.3 Chat مناسب لـ:

  • بوتات دعم العملاء والمساعدين المحادثيين
  • وكلاء تعليمية تفاعلية أو دروس إرشادية
  • تلخيص وبحث محادثي
  • وكلاء معرفة داخلية ومساعدي فرق
  • سؤال وجواب متعدد الوسائط (نص + صور)

يُعد توازنه بين جودة المحادثة وتنوع الواجهة البرمجية مثالياً لتطبيقات تفاعلية تجمع بين حوار طبيعي ومخرجات بيانات مهيكلة.

🔍 القيود

  • ليس أعمق إصدارات الاستدلال: بالنسبة للمهام التحليلية العميقة الحساسة، قد تكون إصدارات GPT-5.3 Thinking أو Pro القادمة أكثر ملاءمة.
  • مخرجات متعددة الوسائط محدودة: رغم دعم إدخال الصور، فإن توليد الصور/الفيديو الكامل أو تدفقات مخرجات متعددة الوسائط الغنية ليست محور هذا الإصدار.
  • التخصيص بالتدريب غير مدعوم: لا يمكنك تخصيص هذا النموذج عبر fine-tuning، وإن كان يمكن توجيه السلوك عبر تعليمات النظام.

How to access Gemini 3.1 flash lite API

Step 1: Sign Up for API Key

Log in to cometapi.com. If you are not our user yet, please register first. Sign into your CometAPI console. Get the access credential API key of the interface. Click “Add Token” at the API token in the personal center, get the token key: sk-xxxxx and submit.

cometapi-key

Step 2: Send Requests to Gemini 3.1 flash lite API

Select the “` gemini-3.1-flash-lite” endpoint to send the API request and set the request body. The request method and request body are obtained from our website API doc. Our website also provides Apifox test for your convenience. Replace <YOUR_API_KEY> with your actual CometAPI key from your account. base url is Gemini Generating Content

Insert your question or request into the content field—this is what the model will respond to . Process the API response to get the generated answer.

Step 3: Retrieve and Verify Results

Process the API response to get the generated answer. After processing, the API responds with the task status and output data.

الأسئلة الشائعة

What tasks is Gemini 3.1 Flash-Lite best suited for?

تم تحسين Gemini 3.1 Flash-Lite لأعباء العمل كثيفة الحجم والحساسة لزمن الاستجابة مثل الترجمة، وإشراف المحتوى، والتصنيف، وتوليد واجهات المستخدم/لوحات المعلومات، وسلاسل مطالبات المحاكاة، حيث تُعد السرعة وانخفاض التكلفة من الأولويات.

What is the context window and output capability of Gemini 3.1 Flash-Lite?

يدعم Gemini 3.1 Flash-Lite نافذة سياق كبيرة تصل إلى 1 million tokens للمدخلات متعددة الوسائط بما في ذلك النصوص والصور والصوت والفيديو، مع مخرجات تصل إلى 64 K tokens.

How does Gemini 3.1 Flash-Lite compare to Gemini 2.5 Flash in performance and cost?

مقارنةً بنماذج Gemini 2.5 Flash، يوفّر Gemini 3.1 Flash-Lite زمناً للوصول إلى الإجابة الأولى أسرع بحوالي ~2.5× ومعدل إنتاجية المخرجات أعلى بنحو ~45 %، مع كونه أقل تكلفةً بكثير لكل مليون رمز لكلٍ من الإدخال والإخراج. }

Does Gemini 3.1 Flash-Lite support adjustable reasoning depth?

نعم — فهو يوفّر مستويات متعددة من الاستدلال أو “التفكير” (مثل: الحد الأدنى، المنخفض، المتوسط، العالي) حتى يتمكن المطوّرون من الموازنة بين السرعة وتعميق الاستدلال في المهام المعقّدة. :contentReference[oaicite:3]{index=3}

What are typical benchmark strengths of Gemini 3.1 Flash-Lite?

في مقاييس مثل GPQA Diamond (المعرفة العلمية) وMMMU Pro (الفهم متعدد الوسائط)، يحقق Gemini 3.1 Flash-Lite نتائج قوية مقارنةً بنماذج Flash-Lite السابقة، مع GPQA بنحو ~86.9 % وMMMU بنحو ~76.8 % في التقييمات الرسمية.

How can I access Gemini 3.1 Flash-Lite via API?

يمكنك استخدام نقطة النهاية gemini-3.1-flash-lite-preview عبر CometAPI لأغراض التكامل المؤسسي.

When should I choose Gemini 3.1 Flash-Lite vs Gemini 3.1 Pro?

اختر Flash-Lite عندما تكون الإنتاجية وزمن الاستجابة والتكلفة أولويات للمهام كبيرة الحجم؛ واختر Pro للمهام التي تتطلب أعلى عمق استدلالي ودقة تحليلية أو فهماً حرجاً للمهام.

الميزات لـ Gemini 3.1 Flash-Lite

استكشف الميزات الرئيسية لـ Gemini 3.1 Flash-Lite، المصممة لتعزيز الأداء وسهولة الاستخدام. اكتشف كيف يمكن لهذه القدرات أن تفيد مشاريعك وتحسن تجربة المستخدم.

التسعير لـ Gemini 3.1 Flash-Lite

استكشف الأسعار التنافسية لـ Gemini 3.1 Flash-Lite، المصمم ليناسب الميزانيات المختلفة واحتياجات الاستخدام المتنوعة. تضمن خططنا المرنة أن تدفع فقط مقابل ما تستخدمه، مما يجعل من السهل التوسع مع نمو متطلباتك. اكتشف كيف يمكن لـ Gemini 3.1 Flash-Lite تحسين مشاريعك مع الحفاظ على التكاليف قابلة للإدارة.
سعر كوميت (USD / M Tokens)السعر الرسمي (USD / M Tokens)خصم
مدخل:$0.2/M
الإخراج:$1.2/M
مدخل:$0.25/M
الإخراج:$1.5/M
-20%

نموذج الكود وواجهة برمجة التطبيقات لـ Gemini 3.1 Flash-Lite

احصل على أكواد نماذجية شاملة وموارد API لـ Gemini 3.1 Flash-Lite لتبسيط عملية التكامل الخاصة بك. توفر وثائقنا التفصيلية إرشادات خطوة بخطوة، مما يساعدك على الاستفادة من الإمكانات الكاملة لـ Gemini 3.1 Flash-Lite في مشاريعك.
POST
/v1/chat/completions
POST
/v1beta/models/{model}:{operator}
Python
JavaScript
Curl
from google import genai
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3.1-flash-lite-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

Python Code Example

from google import genai
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3.1-flash-lite-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

JavaScript Code Example

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const base_url = "https://api.cometapi.com/v1beta";
const model = "gemini-3.1-flash-lite-preview";
const operator = "generateContent";

const response = await fetch(`${base_url}/models/${model}:${operator}`, {
  method: "POST",
  headers: {
    "Content-Type": "application/json",
    Authorization: api_key,
  },
  body: JSON.stringify({
    contents: [
      {
        parts: [{ text: "Explain how AI works in a few words" }],
      },
    ],
  }),
});

const data = await response.json();
console.log(data.candidates[0].content.parts[0].text);

Curl Code Example

curl "https://api.cometapi.com/v1beta/models/gemini-3.1-flash-lite-preview:generateContent" \
  -H "Authorization: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [
      {
        "parts": [
          {
            "text": "Explain how AI works in a few words"
          }
        ]
      }
    ]
  }'

إصدارات Gemini 3.1 Flash-Lite

قد تشمل الأسباب وراء احتواء Gemini 3.1 Flash-Lite على لقطات متعددة عوامل محتملة مثل اختلاف المخرجات بعد التحديثات التي تتطلب اللقطات القديمة لضمان الاتساق، وتوفير فترة انتقالية للمطورين للتكيف والهجرة، وارتباط اللقطات المختلفة بنقاط النهاية العالمية أو الإقليمية لتحسين تجربة المستخدم. للاطلاع على الاختلافات التفصيلية بين الإصدارات، يرجى الرجوع إلى الوثائق الرسمية.
معرّف النموذجالوصفالتوفرالطلب
gemini-3-1-flashيشير تلقائيًا إلى أحدث نموذج✅Gemini Generating Content
gemini-3-1-flash-previewمعاينة رسمية✅Gemini Generating Content
gemini-3.1-flash-lite-preview-thinkingإصدار التفكير✅Gemini Generating Content
gemini-3.1-flash-lite-thinkingإصدار التفكير✅Gemini Generating Content

المزيد من النماذج

C

Claude Opus 4.7

مدخل:$4/M
الإخراج:$20/M
أذكى نموذج للوكلاء والبرمجة
C

Claude Opus 4.6

مدخل:$4/M
الإخراج:$20/M
Claude Opus 4.6 هو نموذج لغة كبير من فئة “Opus” تابع لـ Anthropic، صدر في فبراير 2026. ويُطرح كأداة عمل أساسية لأعمال المعرفة وسير عمل البحث — مع تحسين الاستدلال ضمن سياقات طويلة، والتخطيط متعدد الخطوات، واستخدام الأدوات (بما في ذلك أطر عمل برمجية قائمة على الوكلاء)، ومهام استخدام الحاسوب مثل إنشاء الشرائح وجداول البيانات تلقائيًا.
A

Claude Sonnet 4.6

مدخل:$2.4/M
الإخراج:$12/M
Claude Sonnet 4.6 هو أكثر نماذج Sonnet لدينا كفاءةً حتى الآن. إنه ترقية شاملة لقدرات النموذج في مجالات البرمجة، واستخدام الحاسوب، والاستدلال بسياقات طويلة، وتخطيط الوكلاء، والعمل المعرفي، والتصميم. كما يتميز Sonnet 4.6 بنافذة سياق بسعة 1M رمز في الإصدار التجريبي.
O

GPT-5.4 nano

مدخل:$0.16/M
الإخراج:$1/M
GPT-5.4 nano مصمم للمهام التي تكتسب فيها السرعة والتكلفة أهمية قصوى، مثل التصنيف، واستخراج البيانات، والترتيب، والوكلاء الفرعيين.
O

GPT-5.4 mini

مدخل:$0.6/M
الإخراج:$3.6/M
يقدّم GPT-5.4 mini قدرات GPT-5.4 ضمن نموذج أسرع وأكثر كفاءة مصمم لأحمال عمل كبيرة الحجم.
Q

Qwen3.6-Plus

مدخل:$0.32/M
الإخراج:$1.92/M
Qwen 3.6-Plus أصبح متاحًا الآن، ويمتاز بقدرات محسّنة لتطوير التعليمات البرمجية وكفاءة أعلى في التعرف والاستدلال متعدد الوسائط، مما يجعل تجربة Vibe Coding أفضل من قبل.

مدونات ذات صلة

كيفية الحصول على Gemini 3.1 Deep Think
Mar 13, 2026

كيفية الحصول على Gemini 3.1 Deep Think

Gemini 3.1 Deep Think هو وضع استدلال متقدم طوّرته Google وGoogle DeepMind، يمكّن أنظمة الذكاء الاصطناعي من إجراء استدلال متعدد الخطوات، وتحليل علمي، وحل مشكلات معقّدة. وهو متاح حاليًا في المقام الأول عبر اشتراكات Google AI Ultra، وتطبيق Gemini، وأدوات المطوّرين مثل Gemini API وAI Studio.
تكشف Google عن Gemini 3.1 Flash-Lite — نموذج لغوي كبير سريع ومنخفض التكلفة
Mar 5, 2026
gemini-3-1-flash-lite

تكشف Google عن Gemini 3.1 Flash-Lite — نموذج لغوي كبير سريع ومنخفض التكلفة

قدمت Google النموذج Gemini 3.1 Flash-Lite، وهو أحدث عضو في عائلة Gemini 3 صُمّم خصيصًا ليكون محركًا عالي الإنتاجية، منخفض الكمون، وفعّالًا من حيث التكلفة لأعباء عمل المطوّرين والمؤسسات. وتصف Google نموذج Flash-Lite بأنه "الأسرع والأكثر فعالية من حيث التكلفة" ضمن سلسلة Gemini 3: نسخة خفيفة الوزن تهدف إلى تقديم تفاعلات متدفقة، ومعالجة خلفية واسعة النطاق، ومهام إنتاج عالية التكرار (مثل الترجمة، والاستخراج، وتوليد واجهات المستخدم، والتصنيف بكميات كبيرة) بسعر أقل بكثير مقارنة بنظيراتها من طُرز Pro.