โมเดลราคาองค์กร
500+ AI Model API ทั้งหมดในหนึ่ง API เพียงแค่ใน CometAPI
API โมเดล
นักพัฒนา
เริ่มต้นอย่างรวดเร็วเอกสารประกอบแดชบอร์ด API
บริษัท
เกี่ยวกับเราองค์กร
ทรัพยากร
โมเดล AIบล็อกบันทึกการเปลี่ยนแปลงสนับสนุน
ข้อกำหนดการให้บริการนโยบายความเป็นส่วนตัว
© 2026 CometAPI · All rights reserved
Home/Models/Google/Gemini 3.1 Flash-Lite
G

Gemini 3.1 Flash-Lite

อินพุต:$0.2/M
เอาต์พุต:$1.2/M
Gemini 3.1 Flash-Lite เป็นโมเดลระดับ Tier-3 ในตระกูล Gemini 3 ของ Google ที่มีความคุ้มค่าด้านต้นทุนและความหน่วงต่ำอย่างยิ่ง ออกแบบมาสำหรับเวิร์กโฟลว์ AI ในการผลิตปริมาณมาก ซึ่งให้น้ำหนักกับอัตราการประมวลผลและความเร็วมากกว่าความลึกในการให้เหตุผลสูงสุด โดยผสานหน้าต่างบริบทแบบมัลติโหมดขนาดใหญ่เข้ากับสมรรถนะการอนุมานที่มีประสิทธิภาพ ในขณะที่มีต้นทุนต่ำกว่ารุ่นเรือธงส่วนใหญ่
ใหม่
ใช้งานเชิงพาณิชย์
Playground
ภาพรวม
คุณสมบัติ
ราคา
API
เวอร์ชัน

📊 ข้อมูลจำเพาะทางเทคนิค

SpecificationDetails
ตระกูลโมเดลGemini 3 (Flash-Lite)
หน้าต่างบริบทสูงสุด 1 ล้านโทเค็น (ข้อความหลายรูปแบบ, รูปภาพ, เสียง, วิดีโอ)
ขีดจำกัดโทเค็นเอาต์พุตสูงสุด 64 K โทเค็น
ประเภทอินพุตข้อความ, รูปภาพ, เสียง, วิดีโอ
สถาปัตยกรรมหลักอิงจาก Gemini 3 Pro
ช่องทางการใช้งานGemini API (Google AI Studio), Vertex AI
ราคา (พรีวิว)~$0.25 ต่อ 1M โทเค็นอินพุต, ~$1.50 ต่อ 1M โทเค็นเอาต์พุต
การควบคุมการให้เหตุผลปรับ “ระดับการคิด” ได้ (เช่น ต่ำสุดถึงสูง)

🔍 Gemini 3.1 Flash-Lite คืออะไร?

Gemini 3.1 Flash-Lite คือ รุ่นทางเลือกที่คุ้มค่าและมีขนาดเบา ของซีรีส์ Gemini 3 จาก Google ซึ่งปรับแต่งมาสำหรับ เวิร์กโหลด AI ปริมาณมหาศาลในระดับสเกลใหญ่ โดยเฉพาะในกรณีที่ให้ความสำคัญกับเวลาแฝงที่ต่ำลง ต้นทุนต่อโทเค็นที่ต่ำกว่า และปริมาณงานที่ประมวลผลได้สูง โดยยังคงรักษาแกนหลักด้านการให้เหตุผลแบบหลายรูปแบบของ Gemini 3 Pro ไว้ ขณะเดียวกันก็มุ่งเป้าไปที่กรณีใช้งานแบบประมวลผลจำนวนมาก เช่น การแปล การจัดประเภท การกลั่นกรองเนื้อหา การสร้าง UI และการสังเคราะห์ข้อมูลแบบมีโครงสร้าง

✨ คุณสมบัติหลัก

  1. หน้าต่างบริบทขนาดใหญ่มาก: รองรับอินพุตหลายรูปแบบได้สูงสุด 1 M โทเค็น ทำให้สามารถให้เหตุผลกับเอกสารยาวและประมวลผลบริบทจากวิดีโอ/เสียงได้
  2. การประมวลผลที่คุ้มค่า: มีต้นทุนต่อโทเค็นต่ำกว่ารุ่น Flash-Lite ก่อนหน้าและคู่แข่งอย่างมีนัยสำคัญ ทำให้เหมาะกับการใช้งานปริมาณสูง
  3. ปริมาณงานสูงและเวลาแฝงต่ำ: เวลาไปถึงโทเค็นแรกเร็วขึ้นประมาณ ~2.5× และความเร็วในการสร้างเอาต์พุตสูงขึ้นประมาณ ~45 % เมื่อเทียบกับ Gemini 2.5 Flash
  4. การควบคุมการให้เหตุผลแบบไดนามิก: “ระดับการคิด” ช่วยให้นักพัฒนาปรับสมดุลระหว่างประสิทธิภาพกับการให้เหตุผลที่ลึกขึ้นได้ในแต่ละคำขอ
  5. รองรับหลายรูปแบบ: ประมวลผลรูปภาพ เสียง วิดีโอ และข้อความได้โดยตรงภายในพื้นที่บริบทรวมเดียวกัน
  6. การเข้าถึง API ที่ยืดหยุ่น: ใช้งานได้ผ่าน Gemini API ใน Google AI Studio และเวิร์กโฟลว์ระดับองค์กรบน Vertex AI

📈 ประสิทธิภาพตามเบนช์มาร์ก

เมตริกต่อไปนี้แสดงให้เห็นถึง ประสิทธิภาพและความสามารถของ Gemini 3.1 Flash-Lite เมื่อเทียบกับรุ่น Flash/Lite ก่อนหน้าและโมเดลอื่น ๆ (รายงานเมื่อเดือนมีนาคม 2026):

BenchmarkGemini 3.1 Flash-LiteGemini 2.5 Flash DynamicGPT-5 Mini
GPQA Diamond (ความรู้ทางวิทยาศาสตร์)86.9 %66.7 %82.3 %
MMMU-Pro (การให้เหตุผลหลายรูปแบบ)76.8 %51.0 %74.1 %
CharXiv (การให้เหตุผลกับกราฟซับซ้อน)73.2 %55.5 %75.5 % (+python)
Video-MMMU84.8 %60.7 %82.5 %
LiveCodeBench (การให้เหตุผลด้านโค้ด)72.0 %34.3 %80.4 %
1M Long-Context12.3 %5.4 %ไม่รองรับ

คะแนนเหล่านี้บ่งชี้ว่า Flash-Lite ยังคงมี ความสามารถในการให้เหตุผลและความเข้าใจแบบหลายรูปแบบที่แข่งขันได้ แม้จะถูกออกแบบโดยเน้นประสิทธิภาพเป็นหลัก และมักทำได้ดีกว่ารุ่น Flash รุ่นเก่าในหลายเบนช์มาร์กสำคัญ

⚖️ การเปรียบเทียบกับโมเดลที่เกี่ยวข้อง

FeatureGemini 3.1 Flash-LiteGemini 3.1 Pro
ต้นทุนต่อโทเค็นต่ำกว่า (ระดับเริ่มต้น)สูงกว่า (ระดับพรีเมียม)
เวลาแฝง / ปริมาณงานปรับแต่งเพื่อความเร็วสมดุลระหว่างความลึกกับประสิทธิภาพ
ความลึกของการให้เหตุผลปรับได้ แต่ตื้นกว่าการให้เหตุผลเชิงลึกแข็งแกร่งกว่า
จุดเน้นการใช้งานไปป์ไลน์จำนวนมาก, การกลั่นกรอง, การแปลงานให้เหตุผลสำคัญระดับวิกฤต
หน้าต่างบริบท1 M โทเค็น1 M โทเค็น (เท่ากัน)

Flash-Lite ถูกออกแบบมาสำหรับสเกลและต้นทุน; Pro เหมาะสำหรับการให้เหตุผลเชิงลึกที่ต้องการความแม่นยำสูง

🧠 กรณีใช้งานระดับองค์กร

  • การแปลและการกลั่นกรองปริมาณสูง: ไปป์ไลน์ภาษาและเนื้อหาแบบเรียลไทม์ที่มีเวลาแฝงต่ำ
  • การดึงข้อมูลและการจัดประเภทแบบจำนวนมาก: การประมวลผลคอร์ปัสขนาดใหญ่ด้วยความคุ้มค่าด้านโทเค็น
  • การสร้าง UI/UX: JSON แบบมีโครงสร้าง เทมเพลตแดชบอร์ด และโครงร่างส่วนหน้า
  • การกระตุ้นการจำลอง: การติดตามสถานะเชิงตรรกะตลอดการโต้ตอบที่ยาวนาน
  • แอปพลิเคชันหลายรูปแบบ: การให้เหตุผลที่อาศัยวิดีโอ เสียง และรูปภาพภายในบริบทรวมเดียวกัน

🧪 ข้อจำกัด

  • ความลึกของการให้เหตุผลและความแม่นยำเชิงวิเคราะห์อาจด้อยกว่า Gemini 3.1 Pro ในงานซับซ้อนที่มีความสำคัญระดับวิกฤต :
  • ผลลัพธ์เบนช์มาร์ก เช่น การผสานบริบทระยะยาว ยังมีพื้นที่ให้ปรับปรุงเมื่อเทียบกับโมเดลเรือธง
  • การควบคุมการให้เหตุผลแบบไดนามิกเป็นการแลกเปลี่ยนระหว่างความเร็วกับความละเอียดรอบคอบ; ไม่ใช่ทุกระดับที่จะรับประกันคุณภาพเอาต์พุตเท่ากัน

GPT-5.3 Chat (Alias: gpt-5.3-chat-latest) — ภาพรวม

GPT-5.3 Chat คือโมเดลแชตสำหรับใช้งานจริงรุ่นล่าสุดจาก OpenAI ซึ่งให้บริการผ่านเอ็นด์พอยต์ gpt-5.3-chat-latest ใน API อย่างเป็นทางการ และเป็นพลังขับเคลื่อนประสบการณ์การสนทนาในชีวิตประจำวันของ ChatGPT โดยมุ่งเน้นการยกระดับคุณภาพของการโต้ตอบทั่วไป ทำให้คำตอบลื่นไหลขึ้น แม่นยำขึ้น และสอดคล้องกับบริบทมากขึ้น ขณะเดียวกันก็ยังคงความสามารถทางเทคนิคที่แข็งแกร่งซึ่งสืบทอดมาจากตระกูล GPT-5 ในภาพรวม :contentReference[oaicite:1]{index=1}


📊 ข้อมูลจำเพาะทางเทคนิค

SpecificationDetails
ชื่อ/นามแฝงของโมเดลGPT-5.3 Chat / gpt-5.3-chat-latest
ผู้ให้บริการOpenAI
หน้าต่างบริบท128,000 โทเค็น
โทเค็นเอาต์พุตสูงสุดต่อคำขอ16,384 โทเค็น
ขีดจำกัดความรู้August 31, 2025
รูปแบบอินพุตอินพุตข้อความและรูปภาพ (vision only)
รูปแบบเอาต์พุตข้อความ
การเรียกใช้ฟังก์ชันรองรับ
เอาต์พุตแบบมีโครงสร้างรองรับ
การตอบกลับแบบสตรีมรองรับ
การปรับจูนละเอียดไม่รองรับ
Distillation / embeddingsไม่รองรับ Distillation; รองรับ embeddings
เอ็นด์พอยต์ที่ใช้โดยทั่วไปChat completions, Responses, Assistants, Batch, Realtime
การเรียกใช้ฟังก์ชันและเครื่องมือเปิดใช้การเรียกใช้ฟังก์ชัน; รองรับการค้นหาเว็บและไฟล์ผ่าน Responses API

🧠 อะไรที่ทำให้ GPT-5.3 Chat มีความโดดเด่น

GPT-5.3 Chat เป็นการ ปรับปรุงความสามารถด้านการสนทนาแบบค่อยเป็นค่อยไป ในสายตระกูล GPT-5 เป้าหมายหลักของรุ่นย่อยนี้คือการมอบ คำตอบเชิงสนทนาที่เป็นธรรมชาติ สอดคล้องกับบริบท และเป็นมิตรต่อผู้ใช้มากขึ้น เมื่อเทียบกับโมเดลก่อนหน้า เช่น GPT-5.2 Instant การปรับปรุงมุ่งเน้นไปที่:

  • น้ำเสียงที่เป็นธรรมชาติและปรับได้ตามบริบท พร้อมคำเตือนที่ไม่จำเป็นน้อยลง และคำตอบที่ตรงประเด็นมากขึ้น
  • ความเข้าใจ บริบทและความเกี่ยวข้อง ที่ดีขึ้นในสถานการณ์แชตทั่วไป
  • การผสานการใช้งานกับกรณีแชตที่หลากหลายได้ลื่นไหลยิ่งขึ้น รวมถึงบทสนทนาหลายรอบ การสรุป และการช่วยเหลือเชิงสนทนา

GPT-5.3 Chat เหมาะสำหรับนักพัฒนาและแอปพลิเคชันเชิงโต้ตอบที่ต้องการ การปรับปรุงด้านการสนทนาล่าสุด โดยไม่จำเป็นต้องใช้ความลึกด้านการให้เหตุผลเฉพาะทางของ GPT-5.3 รุ่น “Thinking” หรือ “Pro” ในอนาคต (ซึ่งกำลังจะตามมา)


🚀 คุณสมบัติเด่น

  • หน้าต่างบริบทขนาดใหญ่สำหรับแชต: 128K โทเค็น ช่วยรองรับประวัติการสนทนาที่ยาวและการติดตามบริบทระยะยาว :contentReference[oaicite:17]{index=17}
  • คุณภาพการตอบกลับที่ดีขึ้น: การไหลลื่นของบทสนทนาที่ได้รับการปรับปรุง พร้อมข้อควรระวังที่ไม่จำเป็นหรือการปฏิเสธแบบระมัดระวังเกินไปที่ลดลง :contentReference[oaicite:18]{index=18}
  • รองรับ API อย่างเป็นทางการ: รองรับเอ็นด์พอยต์สำหรับแชต การประมวลผลแบบแบตช์ เอาต์พุตแบบมีโครงสร้าง และเวิร์กโฟลว์แบบเรียลไทม์อย่างเต็มรูปแบบ
  • รองรับอินพุตอย่างหลากหลาย: รับและทำความเข้าใจอินพุตข้อความและรูปภาพ เหมาะสำหรับกรณีใช้งานแชตหลายรูปแบบ
  • การเรียกใช้ฟังก์ชันและเอาต์พุตแบบมีโครงสร้าง: ช่วยให้สร้างรูปแบบแอปพลิเคชันเชิงโครงสร้างและเชิงโต้ตอบผ่าน API ได้ :contentReference[oaicite:21]{index=21}
  • เข้ากันได้กับระบบนิเวศกว้างขวาง: ทำงานร่วมกับ v1/chat/completions, v1/responses, Assistants และอินเทอร์เฟซ OpenAI API สมัยใหม่อื่น ๆ ได้

📈 เบนช์มาร์กและพฤติกรรมโดยทั่วไป

📈 ประสิทธิภาพตามเบนช์มาร์ก

OpenAI และรายงานอิสระแสดงให้เห็นถึงประสิทธิภาพจริงที่ดีขึ้น:

MetricGPT-5.3 Instant เทียบกับ GPT-5.2 Instant
อัตราการหลอนข้อมูลเมื่อใช้การค้นหาเว็บ−26.8%
อัตราการหลอนข้อมูลโดยไม่ใช้การค้นหา−19.7%
ข้อผิดพลาดเชิงข้อเท็จจริงที่ผู้ใช้รายงาน (เว็บ)~−22.5%
ข้อผิดพลาดเชิงข้อเท็จจริงที่ผู้ใช้รายงาน (ภายใน)~−9.6%

ที่น่าสังเกตคือ การที่ GPT-5.3 มุ่งเน้น คุณภาพการสนทนาในโลกจริง หมายความว่าการปรับปรุงคะแนนเบนช์มาร์ก (เช่น เมตริก NLP มาตรฐาน) ไม่ใช่จุดเด่นหลักของการเปิดตัว — การปรับปรุงจะเห็นได้ชัดที่สุดใน เมตริกประสบการณ์ผู้ใช้ มากกว่าคะแนนการทดสอบดิบ

ในการเปรียบเทียบในอุตสาหกรรม รุ่นแชตในตระกูล GPT-5 เป็นที่รู้กันว่าทำได้ดีกว่าโมดูล GPT-4 รุ่นก่อนหน้าในด้านความเกี่ยวข้องของแชตทั่วไปและการติดตามบริบท แม้ว่างานให้เหตุผลเฉพาะทางอาจยังเหมาะกับรุ่น “Pro” โดยเฉพาะหรือเอ็นด์พอยต์ที่ปรับแต่งเพื่อการให้เหตุผลมากกว่า


🤖 กรณีใช้งาน

GPT-5.3 Chat เหมาะอย่างยิ่งสำหรับ:

  • บอตฝ่ายสนับสนุนลูกค้า และผู้ช่วยเชิงสนทนา
  • เอเจนต์สอนแบบโต้ตอบหรือเพื่อการศึกษา
  • การสรุปและการค้นหาเชิงสนทนา
  • เอเจนต์ความรู้ภายในและผู้ช่วยแชตสำหรับทีม
  • คำถามและคำตอบหลายรูปแบบ (ข้อความ + รูปภาพ)

ความสมดุลระหว่างคุณภาพการสนทนาและความยืดหยุ่นของ API ทำให้เหมาะอย่างยิ่งสำหรับแอปพลิเคชันเชิงโต้ตอบที่ผสานบทสนทนาธรรมชาติเข้ากับเอาต์พุตข้อมูลแบบมีโครงสร้าง

🔍 ข้อจำกัด

  • ไม่ใช่รุ่นที่ให้เหตุผลลึกที่สุด: สำหรับความลึกเชิงวิเคราะห์ในงานสำคัญที่มีความเสี่ยงสูง GPT-5.3 รุ่น Thinking หรือ Pro ที่จะออกมาในอนาคตอาจเหมาะสมกว่า
  • เอาต์พุตหลายรูปแบบยังมีข้อจำกัด: แม้จะรองรับรูปภาพเป็นอินพุต แต่การสร้างภาพ/วิดีโอเต็มรูปแบบหรือเวิร์กโฟลว์เอาต์พุตหลายรูปแบบที่ซับซ้อนไม่ใช่จุดเน้นหลักของรุ่นนี้
  • ไม่รองรับการปรับจูนละเอียด: คุณไม่สามารถ fine-tune โมเดลนี้ได้ แม้ว่าจะสามารถกำหนดพฤติกรรมผ่าน system prompts ได้

วิธีเข้าถึง API ของ Gemini 3.1 flash lite

ขั้นตอนที่ 1: สมัครรับ API Key

เข้าสู่ระบบที่ cometapi.com หากคุณยังไม่ได้เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน จากนั้นลงชื่อเข้าใช้ CometAPI console ของคุณ รับข้อมูลรับรองการเข้าถึง API key ของอินเทอร์เฟซ คลิก “Add Token” ที่ส่วน API token ในศูนย์ส่วนบุคคล แล้วรับ token key: sk-xxxxx และส่งคำขอ

cometapi-key

ขั้นตอนที่ 2: ส่งคำขอไปยัง API ของ Gemini 3.1 flash lite

เลือกเอ็นด์พอยต์ “` gemini-3.1-flash-lite” เพื่อส่งคำขอ API และตั้งค่า request body วิธีการส่งคำขอและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบผ่าน Apifox เพื่อความสะดวกของคุณ แทนที่ <YOUR_API_KEY> ด้วย CometAPI key จริงจากบัญชีของคุณ base url คือ Gemini Generating Content

ใส่คำถามหรือคำขอของคุณลงในฟิลด์ content—นี่คือสิ่งที่โมเดลจะใช้ตอบกลับ ประมวลผล API response เพื่อรับคำตอบที่สร้างขึ้น

ขั้นตอนที่ 3: ดึงและตรวจสอบผลลัพธ์

ประมวลผล API response เพื่อรับคำตอบที่สร้างขึ้น หลังจากประมวลผลแล้ว API จะตอบกลับด้วยสถานะของงานและข้อมูลเอาต์พุต

คำถามที่พบบ่อย

What tasks is Gemini 3.1 Flash-Lite best suited for?

Gemini 3.1 Flash-Lite ได้รับการปรับให้เหมาะกับเวิร์กโฟลว์ปริมาณงานสูงที่ไวต่อเวลาแฝง เช่น การแปล การตรวจกรองเนื้อหา การจำแนกประเภท การสร้าง UI/แดชบอร์ด และสายงานพรอมป์ต์สำหรับการจำลอง โดยให้ความสำคัญกับความเร็วและต้นทุนต่ำเป็นหลัก.

What is the context window and output capability of Gemini 3.1 Flash-Lite?

Gemini 3.1 Flash-Lite รองรับหน้าต่างบริบทขนาดใหญ่ได้สูงสุด 1 million tokens สำหรับอินพุตแบบมัลติโหมด ได้แก่ ข้อความ รูปภาพ เสียง และวิดีโอ โดยมีเอาต์พุตได้สูงสุด 64 K tokens.

How does Gemini 3.1 Flash-Lite compare to Gemini 2.5 Flash in performance and cost?

เมื่อเทียบกับรุ่น Gemini 2.5 Flash, Gemini 3.1 Flash-Lite ให้เวลาได้คำตอบแรกเร็วขึ้นประมาณ ~2.5× และอัตราการส่งออกสูงขึ้นประมาณ ~45 % ในขณะที่มีต้นทุนต่อหนึ่งล้านโทเค็นถูกกว่ามากทั้งสำหรับอินพุตและเอาต์พุต. }

Does Gemini 3.1 Flash-Lite support adjustable reasoning depth?

ใช่ — มีระดับการให้เหตุผลหรือ“การคิด”หลายระดับ (เช่น minimal, low, medium, high) เพื่อให้นักพัฒนาปรับสมดุลระหว่างความเร็วกับการให้เหตุผลที่ลึกขึ้นในงานที่ซับซ้อน. :contentReference[oaicite:3]{index=3}

What are typical benchmark strengths of Gemini 3.1 Flash-Lite?

ในชุดทดสอบมาตรฐาน เช่น GPQA Diamond (ความรู้ทางวิทยาศาสตร์) และ MMMU Pro (ความเข้าใจแบบมัลติโหมด) Gemini 3.1 Flash-Lite ทำคะแนนได้โดดเด่นเมื่อเทียบกับรุ่น Flash-Lite ก่อนหน้า โดยมีคะแนน GPQA ~86.9 % และ MMMU ~76.8 % ในการประเมินอย่างเป็นทางการ.

How can I access Gemini 3.1 Flash-Lite via API?

คุณสามารถใช้ endpoint gemini-3.1-flash-lite-preview ผ่าน CometAPI สำหรับการผสานรวมในระดับองค์กรม.

When should I choose Gemini 3.1 Flash-Lite vs Gemini 3.1 Pro?

เลือกใช้ Flash-Lite เมื่อต้องให้ความสำคัญกับปริมาณงานที่ทำได้ต่อหน่วยเวลา เวลาแฝง และต้นทุน สำหรับงานปริมาณมาก; เลือกใช้ Pro สำหรับงานที่ต้องการระดับการให้เหตุผลที่ลึกที่สุด ความแม่นยำในการวิเคราะห์ หรือความเข้าใจเชิงวิกฤตต่อภารกิจ.

คุณสมบัติสำหรับ Gemini 3.1 Flash-Lite

สำรวจคุณสมบัติหลักของ Gemini 3.1 Flash-Lite ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพและความสะดวกในการใช้งาน ค้นพบว่าความสามารถเหล่านี้สามารถเป็นประโยชน์ต่อโครงการของคุณและปรับปรุงประสบการณ์ของผู้ใช้ได้อย่างไร

ราคาสำหรับ Gemini 3.1 Flash-Lite

สำรวจราคาที่แข่งขันได้สำหรับ Gemini 3.1 Flash-Lite ที่ออกแบบมาให้เหมาะสมกับงบประมาณและความต้องการการใช้งานที่หลากหลาย แผนการบริการที่ยืดหยุ่นของเรารับประกันว่าคุณจะจ่ายเฉพาะสิ่งที่คุณใช้เท่านั้น ทำให้สามารถขยายขนาดได้ง่ายเมื่อความต้องการของคุณเพิ่มขึ้น ค้นพบว่า Gemini 3.1 Flash-Lite สามารถยกระดับโปรเจกต์ของคุณได้อย่างไรในขณะที่ควบคุมต้นทุนให้อยู่ในระดับที่จัดการได้
ราคา Comet (USD / M Tokens)ราคาทางการ (USD / M Tokens)ส่วนลด
อินพุต:$0.2/M
เอาต์พุต:$1.2/M
อินพุต:$0.25/M
เอาต์พุต:$1.5/M
-20%

โค้ดตัวอย่างและ API สำหรับ Gemini 3.1 Flash-Lite

เข้าถึงโค้ดตัวอย่างที่ครอบคลุมและทรัพยากร API สำหรับ Gemini 3.1 Flash-Lite เพื่อปรับปรุงกระบวนการผสานรวมของคุณ เอกสารประกอบที่มีรายละเอียดของเราให้คำแนะนำทีละขั้นตอน ช่วยให้คุณใช้ประโยชน์จากศักยภาพเต็มรูปแบบของ Gemini 3.1 Flash-Lite ในโครงการของคุณ
POST
/v1/chat/completions
POST
/v1beta/models/{model}:{operator}
Python
JavaScript
Curl
from google import genai
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3.1-flash-lite-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

Python Code Example

from google import genai
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3.1-flash-lite-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

JavaScript Code Example

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const base_url = "https://api.cometapi.com/v1beta";
const model = "gemini-3.1-flash-lite-preview";
const operator = "generateContent";

const response = await fetch(`${base_url}/models/${model}:${operator}`, {
  method: "POST",
  headers: {
    "Content-Type": "application/json",
    Authorization: api_key,
  },
  body: JSON.stringify({
    contents: [
      {
        parts: [{ text: "Explain how AI works in a few words" }],
      },
    ],
  }),
});

const data = await response.json();
console.log(data.candidates[0].content.parts[0].text);

Curl Code Example

curl "https://api.cometapi.com/v1beta/models/gemini-3.1-flash-lite-preview:generateContent" \
  -H "Authorization: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [
      {
        "parts": [
          {
            "text": "Explain how AI works in a few words"
          }
        ]
      }
    ]
  }'

รุ่นของ Gemini 3.1 Flash-Lite

เหตุผลที่ Gemini 3.1 Flash-Lite มีสแนปช็อตหลายตัวอาจรวมถึงปัจจัยที่อาจเกิดขึ้น เช่น ความแปรผันของผลลัพธ์หลังการอัปเดตที่ต้องการสแนปช็อตรุ่นเก่าสำหรับความสม่ำเสมอ การให้ช่วงเวลาเปลี่ยนผ่านสำหรับนักพัฒนาเพื่อการปรับตัวและการย้ายข้อมูล และสแนปช็อตที่แตกต่างกันซึ่งสอดคล้องกับเอนด์พอยต์ระดับโลกหรือระดับภูมิภาคเพื่อเพิ่มประสิทธิภาพประสบการณ์ผู้ใช้ สำหรับความแตกต่างโดยละเอียดระหว่างเวอร์ชัน โปรดอ้างอิงเอกสารทางการ
รหัสโมเดลคำอธิบายความพร้อมใช้งานคำขอ
gemini-3-1-flashชี้ไปยังโมเดลล่าสุดโดยอัตโนมัติ✅Gemini การสร้างเนื้อหา
gemini-3-1-flash-previewรุ่นพรีวิวอย่างเป็นทางการ✅Gemini การสร้างเนื้อหา
gemini-3.1-flash-lite-preview-thinkingเวอร์ชัน thinking✅Gemini การสร้างเนื้อหา
gemini-3.1-flash-lite-thinkingเวอร์ชัน thinking✅Gemini การสร้างเนื้อหา

โมเดลเพิ่มเติม

C

Claude Opus 4.7

อินพุต:$4/M
เอาต์พุต:$20/M
โมเดลที่ฉลาดที่สุดสำหรับเอเจนต์และการเขียนโค้ด
C

Claude Opus 4.6

อินพุต:$4/M
เอาต์พุต:$20/M
Claude Opus 4.6 เป็นโมเดลภาษาขนาดใหญ่ระดับ “Opus” ของ Anthropic เปิดตัวในเดือนกุมภาพันธ์ 2026. ถูกวางตำแหน่งให้เป็นกำลังหลักสำหรับงานเชิงความรู้และเวิร์กโฟลว์การวิจัย — ปรับปรุงการให้เหตุผลในบริบทยาว การวางแผนหลายขั้นตอน การใช้เครื่องมือ (รวมถึงเวิร์กโฟลว์ซอฟต์แวร์เชิงตัวแทน) และงานการใช้คอมพิวเตอร์ เช่น การสร้างสไลด์และสเปรดชีตอัตโนมัติ.
A

Claude Sonnet 4.6

อินพุต:$2.4/M
เอาต์พุต:$12/M
Claude Sonnet 4.6 เป็นโมเดล Sonnet ที่มีความสามารถมากที่สุดเท่าที่เคยมีมา เป็นการอัปเกรดเต็มรูปแบบของทักษะของโมเดล ครอบคลุมการเขียนโค้ด การใช้งานคอมพิวเตอร์ การให้เหตุผลในบริบทยาว การวางแผนของเอเจนต์ งานด้านความรู้ และการออกแบบ Sonnet 4.6 ยังมาพร้อมกับหน้าต่างบริบทขนาด 1M โทเค็นในเวอร์ชันเบต้า
O

GPT-5.4 nano

อินพุต:$0.16/M
เอาต์พุต:$1/M
GPT-5.4 nano ถูกออกแบบมาสำหรับงานที่ความเร็วและต้นทุนมีความสำคัญสูงสุด เช่น การจำแนกประเภท การสกัดข้อมูล การจัดอันดับ และเอเจนต์ย่อย.
O

GPT-5.4 mini

อินพุต:$0.6/M
เอาต์พุต:$3.6/M
GPT-5.4 mini นำจุดแข็งของ GPT-5.4 มาสู่โมเดลที่เร็วกว่าและมีประสิทธิภาพมากขึ้น ซึ่งออกแบบมาสำหรับภาระงานปริมาณมาก
Q

Qwen3.6-Plus

อินพุต:$0.32/M
เอาต์พุต:$1.92/M
Qwen 3.6-Plus พร้อมใช้งานแล้ว โดยมาพร้อมความสามารถในการพัฒนาโค้ดที่ได้รับการปรับปรุง และประสิทธิภาพที่ดีขึ้นในการจดจำและอนุมานแบบมัลติโหมด ทำให้ประสบการณ์ Vibe Coding ดียิ่งกว่าเดิม

บล็อกที่เกี่ยวข้อง

วิธีเข้าถึง Gemini 3.1 Deep Think
Mar 13, 2026

วิธีเข้าถึง Gemini 3.1 Deep Think

Gemini 3.1 Deep Think เป็นโหมดการให้เหตุผลขั้นสูงที่พัฒนาโดย Google และ Google DeepMind ซึ่งช่วยให้ระบบปัญญาประดิษฐ์สามารถดำเนินการให้เหตุผลแบบหลายขั้นตอน การวิเคราะห์เชิงวิทยาศาสตร์ และการแก้ปัญหาที่ซับซ้อน ปัจจุบันมีให้ใช้งานเป็นหลักผ่านการสมัครสมาชิก Google AI Ultra, แอป Gemini และเครื่องมือสำหรับนักพัฒนา เช่น Gemini API และ AI Studio
Google เปิดตัว Gemini 3.1 Flash-Lite — LLM ที่รวดเร็วและต้นทุนต่ำ
Mar 5, 2026
gemini-3-1-flash-lite

Google เปิดตัว Gemini 3.1 Flash-Lite — LLM ที่รวดเร็วและต้นทุนต่ำ

Google เปิดตัว Gemini 3.1 Flash-Lite สมาชิกใหม่ล่าสุดของตระกูล Gemini 3 ซึ่งออกแบบมาโดยเฉพาะให้เป็นเอนจินสำหรับเวิร์กโหลดของนักพัฒนาและองค์กรที่รองรับปริมาณงานสูง ความหน่วงต่ำ และคุ้มค่าด้านต้นทุน Google วางตำแหน่ง Flash-Lite ให้เป็นโมเดลที่ “เร็วที่สุดและคุ้มค่าที่สุด” ในสายผลิตภัณฑ์ Gemini 3: เวอร์ชันน้ำหนักเบาที่มุ่งให้บริการการโต้ตอบแบบสตรีมมิง การประมวลผลเบื้องหลังขนาดใหญ่ และงานโปรดักชันที่มีความถี่สูง (เช่น การแปล การสกัดข้อมูล การสร้าง UI และการจัดประเภทปริมาณมาก) ในระดับราคาที่ต่ำกว่ารุ่น Pro อย่างมาก