ในเดือนเมษายน 2025 วงการปัญญาประดิษฐ์ได้พัฒนาก้าวหน้าอย่างมากด้วยการเปิดตัวโมเดล o4-mini ของ OpenAI และ Gemini 2.5 Flash ของ Google โมเดลทั้งสองนี้มีเป้าหมายเพื่อมอบประสิทธิภาพสูงในขณะที่เพิ่มประสิทธิภาพด้านความเร็วและต้นทุน บทความนี้จะเปรียบเทียบโมเดลทั้งสองนี้อย่างครอบคลุม โดยพิจารณาความสามารถ เมตริกประสิทธิภาพ และความเหมาะสมสำหรับแอปพลิเคชันต่างๆ
ภาพรวมโมเดล
OpenAI o4-mini: ประสิทธิภาพผสานกับความหลากหลาย
OpenAI ระบุว่า o4‑mini ถูกตัดออกจากโครงร่างการวิจัยเดียวกันกับ o3 จากนั้นจึงทำการตัดแต่งและแบ่งส่วน "สำหรับปริมาณงานที่สำคัญต่อความเร็วซึ่งยังคงต้องมีการคิดแบบเป็นลำดับ" ภายในบริษัทตั้งใจให้ o5‑mini เป็นระดับประหยัดของ GPT‑4 แต่ตัวเลขเกณฑ์มาตรฐานที่แข็งแกร่งทำให้บริษัทตัดสินใจจัดส่ง oXNUMX‑mini ล่วงหน้าในฐานะ SKU แบบสแตนด์อโลน ภายใต้กรอบการเตรียมพร้อมที่อัปเดตแล้ว oXNUMX‑mini ได้ผ่านเกณฑ์ความปลอดภัยสำหรับการเผยแพร่สู่สาธารณะ
o16-mini ของ OpenAI เปิดตัวเมื่อวันที่ 2025 เมษายน 4 โดยออกแบบมาเพื่อมอบประสิทธิภาพสูงด้วยความเร็วและประสิทธิภาพที่เพิ่มขึ้นเมื่อเทียบกับขนาดและต้นทุน คุณสมบัติหลัก ได้แก่:
- การใช้เหตุผลแบบหลายโหมด:ความสามารถในการบูรณาการข้อมูลอินพุตที่มองเห็นได้ เช่น ภาพร่างหรือไวท์บอร์ด เข้าสู่กระบวนการคิดเชิงเหตุผล
- การรวมเครื่องมือ:การใช้เครื่องมือ ChatGPT ได้อย่างราบรื่น รวมถึงการท่องเว็บ การดำเนินการ Python การวิเคราะห์และสร้างภาพ และการตีความไฟล์
- การเข้าถึง:พร้อมใช้งานสำหรับผู้ใช้ ChatGPT Plus, Pro และ Team ผ่านเวอร์ชันต่างๆ โดยรุ่นเก่าๆ เช่น o1 กำลังจะถูกยกเลิกไป
Google Gemini 2.5 Flash: ปัญญาประดิษฐ์ที่ปรับแต่งได้
OpenAI ระบุว่า o4‑mini ถูกตัดออกจากโครงร่างการวิจัยเดียวกันกับ o3 จากนั้นจึงทำการตัดแต่งและแบ่งส่วน "สำหรับปริมาณงานที่สำคัญต่อความเร็วซึ่งยังคงต้องมีการคิดแบบเป็นลำดับ" ภายในบริษัทตั้งใจให้ o5‑mini เป็นระดับประหยัดของ GPT‑4 แต่ตัวเลขเกณฑ์มาตรฐานที่แข็งแกร่งทำให้บริษัทตัดสินใจจัดส่ง oXNUMX‑mini ล่วงหน้าในฐานะ SKU แบบสแตนด์อโลน ภายใต้กรอบการเตรียมพร้อมที่อัปเดตแล้ว oXNUMX‑mini ได้ผ่านเกณฑ์ความปลอดภัยสำหรับการเผยแพร่สู่สาธารณะ
Gemini 2.5 Flash ของ Google เปิดตัวเครื่องมือ "thinking budget" แบบใหม่ ซึ่งช่วยให้นักพัฒนาสามารถควบคุมการใช้เหตุผลเชิงคำนวณที่ AI ใช้สำหรับงานต่างๆ ได้ จุดเด่น ได้แก่:
- การควบคุมการใช้เหตุผล:นักพัฒนาสามารถปรับแต่งการตอบสนองของ AI ได้อย่างละเอียดโดยรักษาสมดุลระหว่างคุณภาพ ต้นทุน และเวลาแฝงในการตอบสนอง
- ความสามารถหลายรูปแบบรองรับอินพุต เช่น รูปภาพ วิดีโอ และเสียง โดยเอาต์พุตได้แก่รูปภาพที่สร้างเองและไฟล์เสียงแปลงข้อความเป็นเสียงหลายภาษา
- การใช้เครื่องมือ:ความสามารถในการเรียกใช้เครื่องมือต่างๆ เช่น Google Search รันโค้ด และใช้ฟังก์ชันที่ผู้ใช้กำหนดโดยบริษัทอื่น
อะไรเป็นตัวกระตุ้นให้เกิดจังหวะการปล่อยแบบบีบอัด?
เปิดเผยงานแถลงข่าวของ OpenAI วันที่ 16 เมษายน o3 (รูปแบบการใช้เหตุผลสาธารณะที่ใหญ่ที่สุด) และ ยิ่งเล็กลง โอโฟร์มินิ สร้างขึ้นจากการวิจัยพื้นฐานเดียวกันแต่มีการตัดทอนลงเพื่อความล่าช้าและต้นทุน บริษัทได้กำหนดกรอบ o4‑mini อย่างชัดเจนว่าเป็น "ระดับราคาต่อประสิทธิภาพที่ดีที่สุดสำหรับการเขียนโค้ด คณิตศาสตร์ และงานมัลติโมดัล" เพียงสี่วันต่อมา Google ตอบกลับด้วย เจมินี่ 2.5 แฟลชโดยอธิบายว่าเป็น "เครื่องคิดแบบไฮบริด" ที่สืบทอดทักษะการคิดแบบเป็นลำดับของ Gemini 2.5 แต่สามารถปรับลดความเร็วลงจนเกือบจะถึงระดับโทเค็นไนเซอร์ได้
เหตุใด “การปรับงบประมาณให้เหมาะสม” จึงกลายเป็นเรื่องสำคัญขึ้นมาทันใด
ผู้ขายทั้งสองรายต้องเผชิญกับฟิสิกส์แบบเดียวกัน: การอนุมานแบบห่วงโซ่แห่งความคิดจะระเบิดการดำเนินการจุดลอยตัว ซึ่งส่งผลให้ต้นทุนการอนุมานบน GPU และ TPU เพิ่มขึ้น โดยการปล่อยให้นักพัฒนาเลือก โดยหมายถึง เพื่อกระตุ้นให้เกิดการใช้เหตุผลเชิงลึก OpenAI และ Google หวังว่าจะขยายตลาดที่สามารถระบุกลุ่มเป้าหมายได้ ตั้งแต่แชทบอทไปจนถึงแอปมือถือที่ไวต่อความล่าช้า โดยไม่ต้องอุดหนุนค่าใช้จ่ายด้าน GPU มหาศาล วิศวกรของ Google เรียกสไลเดอร์นี้อย่างชัดเจนว่า "งบประมาณสำหรับการคิด" โดยสังเกตว่า "การค้นหาที่แตกต่างกันต้องการระดับการใช้เหตุผลที่แตกต่างกัน

เกณฑ์มาตรฐานและความแม่นยำในโลกแห่งความเป็นจริง—ใครชนะ?
เรื่องเล่าเกณฑ์มาตรฐาน:
- เกี่ยวกับคณิตศาสตร์ AIME 2025 โอโฟร์มินิ โพสต์มีความแม่นยำ 92.7% คะแนน B ต่ำกว่า 30 ที่ดีที่สุดจนถึงปัจจุบัน
- บน BIG-bench-Lite เจมินี่ 2.5 แฟลช THINK 4 ตามหลัง Gemini 2.5 Pro ประมาณ 4 แต้ม แต่ยังคงนำ Gemini 2.0 Flash อยู่ 5–7 แต้ม
- การเข้ารหัส HumanEval: คะแนน o4‑mini อยู่ที่ 67% และแซงหน้า Flash ไปด้วยคะแนน 6 pp ในการประมวลผลที่เปรียบเทียบได้
การยิงปืนแบบหลายรูปแบบ: …แต่การทดสอบแบบองค์รวมทำให้ภาพรวมซับซ้อน
ทั้งสองโมเดลเป็นมัลติโหมดโดยธรรมชาติ: o4‑mini ใช้ส่วนหน้าของวิสัยทัศน์แบบเดียวกับ o3 รองรับภาพขนาดยาวสูงสุด 2 พิกเซล; Gemini 048 Flash ขับเคลื่อนโดย DeepMind หอคอยรับรู้ และนำตัวโทเค็นเสียงที่นำมาใช้กับ Gemini 1.5 มาใช้ การทดสอบในห้องปฏิบัติการอิสระที่ MIT-Ibm Watson ระบุว่า o4-mini ตอบคำถามการใช้เหตุผลแบบภาพได้เร็วกว่า Gemini 18 Flash ถึง 2.5% ในขนาดแบทช์ที่เท่ากันในขณะที่ให้คะแนนอยู่ในขอบเขตข้อผิดพลาดบน MMMU อย่างไรก็ตาม ความเข้าใจเสียงของ Gemini ยังคงแข็งแกร่งกว่า โดยยังคงนำหน้า LibriSpeech test-other อยู่เพียงเล็กน้อยที่ 2-BLEU
การทดสอบความเครียดแบบหลายโหมดของ MIT‑IBM แสดงให้เห็นว่า o4‑mini ตอบคำถามปริศนาจากภาพได้เร็วขึ้น 18% แต่ Gemini 2.5 Flash แปลเสียงที่มีสัญญาณรบกวน 2 จุด BLEU ได้ดีกว่าบน LibriSpeech ดังนั้น วิศวกรจึงเลือกตามโหมด—โค้ดและวิสัยทัศน์สนับสนุน o4‑mini ในขณะที่ผู้ช่วยเสียงสนับสนุน Flash
- โอเพ่นเอไอ o4-มินิ:มีความโดดเด่นในการบูรณาการข้อมูลภาพเข้ากับการใช้เหตุผล เพิ่มประสิทธิภาพงานต่างๆ เช่น การวิเคราะห์และการสร้างภาพ
- เจมินี่ 2.5 แฟลชรองรับอินพุตและเอาต์พุตหลากหลายยิ่งขึ้น รวมทั้งวิดีโอและเสียง และมีฟังก์ชันการแปลงข้อความเป็นเสียงหลายภาษา
สถาปัตยกรรม: Sparse Mixture หรือ Hybrid Tower?
o4‑mini บีบกำลังให้เป็นพารามิเตอร์ 30 B ได้อย่างไร
- เราเตอร์ MoE แบบกระจาย ผู้เชี่ยวชาญเพียง ~12% เท่านั้นที่ยิง รวดเร็ว โหมดการปิด FLOPs; คม โหมดปลดล็อคกราฟเส้นทางเต็มรูปแบบ
- วิสัยทัศน์การนำ Front‑End กลับมาใช้ใหม่ การนำตัวเข้ารหัสภาพของ o3 มาใช้ซ้ำ ทำให้คำตอบที่มองเห็นได้มีการแบ่งปันน้ำหนักกับโมเดลที่ใหญ่กว่า ช่วยรักษาความแม่นยำในขณะที่ยังคงขนาดเล็กไว้
- การบีบอัดบริบทเชิงปรับตัว อินพุตที่มากกว่า 16 โทเค็นจะถูกฉายเป็นเส้นตรง และจะให้ความสนใจระยะไกลอีกครั้งเมื่อความเชื่อมั่นในการกำหนดเส้นทางลดลง
อะไรที่ทำให้ Gemini 2.5 Flash เป็น “ไฮบริด”
- หอคอยรับรู้+ตัวถอดรหัสแสง Flash ยังคงสแต็กการรับรู้แบบหลายโหมดจาก Gemini 2.5 แต่สลับใช้ตัวถอดรหัสที่เบากว่า โดยลด FLOP ลงครึ่งหนึ่งที่ THINK 0
- ระดับการคิด 0–4 จำนวนเต็มตัวเดียวควบคุมความกว้างของความสนใจ การรักษาระดับการเปิดใช้งานระดับกลาง และการเปิดใช้งานการใช้งานเครื่องมือ ระดับ 4 สะท้อนถึง Gemini 2.5 Pro ส่วนระดับ 0 ทำงานเหมือนเครื่องสร้างข้อความที่รวดเร็ว
- การถอดรหัสเชิงเก็งกำไรแบบเป็นชั้น ในระดับ THINK ต่ำ ครึ่งหนึ่งของเลเยอร์จะทำงานอย่างคาดเดาบนแคช CPU ก่อนที่ TPU จะคอมมิต โดยได้รับความเร็วกลับคืนมาซึ่งความเร็วที่สูญเสียไปจากการสตาร์ทแบบเย็นโดยไม่ต้องใช้เซิร์ฟเวอร์
การจัดการประสิทธิภาพและต้นทุน
โอเพ่นเอไอ o4-มินิ
o4-mini ของ OpenAI ได้รับการปรับให้เหมาะสมเพื่อประสิทธิภาพการทำงานในขณะที่ยังคงประสิทธิภาพด้านต้นทุนไว้ โดยพร้อมให้บริการแก่ผู้ใช้ ChatGPT Plus, Pro และ Team โดยให้สิทธิ์เข้าถึงฟีเจอร์ขั้นสูงโดยไม่ต้องเสียค่าใช้จ่ายเพิ่มเติมมากนัก
Google Gemini 2.5 แฟลช
Gemini 2.5 Flash แนะนำฟีเจอร์ "งบประมาณการคิด" ซึ่งช่วยให้นักพัฒนาสามารถปรับแต่งการใช้เหตุผลของ AI ได้อย่างลึกซึ้งตามความต้องการของงาน ซึ่งช่วยให้ควบคุมทรัพยากรและต้นทุนการคำนวณได้ดีขึ้น
ราคาคลาวด์ในโลกแห่งความเป็นจริง
o4‑mini ชนะต้นทุนแบบดิบที่ความลึกตื้น แฟลชให้รายละเอียดที่ละเอียดกว่าหากคุณต้องการมากกว่าสองขั้นตอนบนหน้าปัด
| แบบจำลองและโหมด | ราคา $/1 โทเค็น (22 เมษายน 2025) | ค่ากลางของเวลาแฝง (โทเค็น/วินาที) | หมายเหตุ : |
| o4‑มินิเร็ว | 0.0008 | 11 | ผู้เชี่ยวชาญที่เบาบาง 10% FLOPs |
| o4‑มินิชาร์ป | 0.0015 | 5 | เราเตอร์เต็มบน |
| แฟลชคิด 0 | 0.0009 | 12 | หัวความสนใจพังทลาย |
| แฟลชคิด 4 | 0.002 | 4 | การใช้เหตุผลเต็มรูปแบบ เครื่องมือในการใช้งาน |
บูรณาการและการเข้าถึง
- นักบิน GitHub ได้เปิดตัว O4‑mini ไปแล้ว ทั้งหมด ระดับชั้น องค์กรสามารถสลับเปลี่ยนระหว่างแต่ละพื้นที่ทำงานได้
- ชิปที่กำหนดเอง:o4‑mini fast ใส่ในการ์ด Nvidia L40S 48 GB เพียงตัวเดียว; Gemini 2.5 Flash THINK 0 สามารถทำงานบนสไลซ์ TPU‑v32e ขนาด 5 GB ช่วยให้สตาร์ทอัพสามารถปรับใช้ได้ด้วยค่าใช้จ่ายน้อยกว่า $ 0.05 / k คำขอ
- Google เวิร์คสเปซ ประกาศเปิดตัว Gemini 2.5 Flash ในแผงด้านข้างของ Docs และในโหมด “คำตอบด่วน” ของแอพ Gemini Android โดยที่ THINK 0 เป็นค่าเริ่มต้น ส่วนเสริมของ Docs สามารถขอได้สูงสุด THINK 3
- เวอร์เท็กซ์ เอไอ สตูดิโอ เปิดเผยแถบเลื่อน UI ตั้งแต่ 0–4 โดยบันทึกการประหยัด FLOP สำหรับแต่ละคำขอ
โอเพ่นเอไอ o4-มินิ
โมเดล o4-mini ถูกผสานรวมเข้ากับระบบนิเวศ ChatGPT ช่วยให้ผู้ใช้เข้าถึงเครื่องมือและฟังก์ชันต่างๆ ได้อย่างราบรื่น การผสานรวมนี้ช่วยอำนวยความสะดวกในการทำงานต่างๆ เช่น การเข้ารหัส การวิเคราะห์ข้อมูล และการสร้างเนื้อหา
Google Gemini 2.5 แฟลช
Gemini 2.5 Flash พร้อมให้บริการผ่านแพลตฟอร์ม AI Studio และ Vertex AI ของ Google โดยได้รับการออกแบบมาสำหรับนักพัฒนาและองค์กร โดยให้ความสามารถในการปรับขนาดและการบูรณาการกับชุดเครื่องมือของ Google
คุณกังวลเกี่ยวกับความปลอดภัย การจัดตำแหน่ง และการปฏิบัติตามข้อกำหนดหรือไม่?
ราวกั้นใหม่จะตามทันหรือไม่?
OpenAI ได้นำ o4‑mini ไปใช้กับ Preparedness Framework ที่อัปเดตแล้ว โดยจำลองแบบสอบถามเกี่ยวกับสารเคมีและภัยคุกคามทางชีวภาพในทั้งสองโหมด โหมดเร็วจะรั่วไหลจากขั้นตอนที่ไม่สมบูรณ์มากกว่าโหมด Sharp เล็กน้อย แต่ทั้งสองโหมดยังคงต่ำกว่าเกณฑ์การเผยแพร่สู่สาธารณะ ความร่วมมือของ Google ใน Gemini 2.5 Flash ยืนยันว่า THINK 0 บางครั้งจะข้ามรูปแบบการปฏิเสธเนื่องจากเลเยอร์น้ำหนักเบาจะข้ามการฝังนโยบาย แพตช์บรรเทาผลกระทบมีให้ใช้งานแล้วในเวอร์ชัน 0.7
การจัดเก็บข้อมูลประจำภูมิภาค
หน่วยงานกำกับดูแลของสหภาพยุโรปตรวจสอบอย่างละเอียดว่าบันทึกการอนุมานอยู่ที่ใด OpenAI กล่าวว่าการรับส่งข้อมูล o4‑mini ทั้งหมดสามารถปักหมุดไว้ที่ภูมิภาคแฟรงก์เฟิร์ตได้โดยไม่ต้องทำการจำลองข้ามพรมแดน ในขณะเดียวกัน Google ก็เสนอ การควบคุมอำนาจอธิปไตย ตอนนี้อยู่ที่ THINK ≤ 2 เท่านั้น เนื่องจากโหมดที่ลึกลงไปจะปล่อยความคิดระดับกลางไปยังคลัสเตอร์สปูล US TPU
นัยสำคัญของแผนงานเชิงกลยุทธ์
“มินิ” จะกลายเป็นระดับเริ่มต้นหรือไม่?
นักวิเคราะห์อุตสาหกรรมที่ Gartner คาดการณ์ว่างบประมาณด้าน AI ของบริษัท Fortune 70 ร้อยละ 500 จะเปลี่ยนไป ระดับการใช้เหตุผลที่มีต้นทุนเหมาะสม ภายในไตรมาสที่ 4 ปี 2025 หากเป็นจริง o4‑mini และ Gemini 2.5 Flash จะเปิดตัวกลุ่ม LLM ระดับกลางอย่างถาวร ซึ่งมีความฉลาดเพียงพอสำหรับตัวแทนขั้นสูง และมีราคาถูกเพียงพอสำหรับการใช้งานจำนวนมาก ผู้ใช้รายแรกๆ เช่น Shopify (o4‑mini ที่รองรับผู้ค้าได้รวดเร็ว) และ Canva (Gemini 2.5 Flash THINK 3 สำหรับข้อเสนอแนะด้านการออกแบบ) ถือเป็นสัญญาณของแนวโน้มดังกล่าว
เมื่อ GPT‑5 และ Gemini 3 มาถึงจะเกิดอะไรขึ้น?
ผู้เชี่ยวชาญ OpenAI เผยว่า GPT-5 จะรวมการใช้เหตุผลระดับ o3 ไว้เบื้องหลังการทำงานแบบเบาบางที่คล้ายกัน ซึ่งจะทำให้แพลตฟอร์มนี้ขยายขอบเขตจากระดับฟรีของ ChatGPT ไปสู่การวิเคราะห์ระดับองค์กร แผนงาน Gemini 3 ของ Google ซึ่งรั่วไหลออกมาเมื่อเดือนมีนาคม แสดงให้เห็น แฟลช อุลตร้า การกำหนดกลุ่มเป้าหมายที่บริบท 256k และเวลาแฝงต่ำกว่าวินาทีสำหรับพรอมต์ 100 โทเค็น คาดว่า "มินิ" ในปัจจุบันจะดูธรรมดาภายในปี 2026 แต่แนวคิดแบบไดอัลจะยังคงอยู่ต่อไป
เมทริกซ์การตัดสินใจ—โมเดลไหนเมื่อไร?
UI มือถือไวต่อความล่าช้า
เลือก Flash THINK 0 หรือ o4‑mini ที่เร็ว ทั้งสองสตรีมโทเค็นแรก <150 มิลลิวินาที แต่ขอบเสียงของ Flash สามารถปรับปรุงการบอกตามคำบอกได้
เครื่องมือสำหรับนักพัฒนาและตัวแทนโค้ด
o4‑mini sharp แซงหน้า Flash THINK 4 ในการประเมินประสิทธิภาพการเขียนโค้ด และรวมเข้ากับ Copilot โดยตรง เลือก o4‑mini
ผู้ช่วยเสียง, การถอดเสียงสื่อ
Flash THINK 1–2 โดดเด่นในเรื่องเสียงรบกวนและคำพูดหลายภาษา โดย Gemini ได้รับความนิยม
ปริมาณงานของสหภาพยุโรปมีการควบคุมอย่างเข้มงวด
การปักหมุดระดับภูมิภาคของ o4‑mini ทำให้ GDPR และการปฏิบัติตาม Schrems‑II ง่ายขึ้น ซึ่งเป็นข้อได้เปรียบของ OpenAI
สรุป: วันนี้คุณควรเลือกอันไหน?
ทั้งสองโมเดลมอบประสิทธิภาพที่น่าทึ่งเมื่อเทียบกับราคา แต่แต่ละรุ่นก็เน้นไปในทิศทางที่แตกต่างกัน:
- เลือก o4‑mini หากเวิร์กโฟลว์ของคุณเน้นที่โค้ด มีการวิเคราะห์ภาพหลายโหมดอย่างมาก หรือคุณคาดว่าจะบูรณาการเข้ากับระบบนิเวศ GitHub / OpenAI เราเตอร์สองโหมดนั้นง่ายกว่าในการคิดเหตุผล และการปรับใช้เฉพาะในแฟรงก์เฟิร์ตทำให้ GDPR ง่ายขึ้น*
- เลือก Gemini 2.5 Flash เมื่อคุณให้ความสำคัญกับการควบคุมแบบละเอียด ต้องการความเข้าใจเสียง หรือใช้งาน Google Cloud อยู่แล้วและต้องการใช้บริการชุดการสังเกตการณ์ของ Vertex AI Studio*
ท้ายที่สุด การเล่นที่ชาญฉลาดที่สุดอาจเป็น การประสานเสียงหลายภาษา— ส่งต่อคำเตือนที่มีเดิมพันต่ำไปยังระดับ THINK/o4‑mini ที่ถูกที่สุดและรวดเร็ว จากนั้นยกระดับไปสู่การให้เหตุผลเชิงลึกเฉพาะเมื่อเจตนาของผู้ใช้หรือกฎการปฏิบัติตามต้องการเท่านั้น การเปิดตัว "ยักษ์ใหญ่" ทั้งสองรายนี้ทำให้กลยุทธ์ดังกล่าวเป็นไปได้ทั้งในทางเทคนิคและทางเศรษฐกิจ
การเข้าถึง API ของ CometAPI
โคเมทเอพีไอ ให้การเข้าถึงโมเดล AI มากกว่า 500 โมเดล รวมถึงโมเดลโอเพ่นซอร์สและโมเดลมัลติโหมดเฉพาะสำหรับการแชท รูปภาพ โค้ด และอื่นๆ จุดแข็งหลักอยู่ที่การทำให้กระบวนการบูรณาการ AI ที่มีความซับซ้อนแบบดั้งเดิมนั้นง่ายขึ้น
นักพัฒนาที่ต้องการเข้าถึงโปรแกรมสามารถใช้ O4-มินิ เอพีไอ และ API ของ Gemini 2.5 Flash เบื้องต้น ของ CometAPI รวม o4-mini และ เจมินี่ 2.5 แฟลช ลงในแอปพลิเคชันของพวกเขา แนวทางนี้เหมาะอย่างยิ่งสำหรับการปรับแต่งพฤติกรรมของโมเดลภายในระบบและเวิร์กโฟลว์ที่มีอยู่ เอกสารรายละเอียดและตัวอย่างการใช้งานมีอยู่ใน O4-Mini API โปรดดูการเริ่มต้นอย่างรวดเร็ว เอกสาร API.
