วิธีการเข้าถึงและใช้งาน GPT-5-Codex-Mini

CometAPI
AnnaNov 11, 2025
วิธีการเข้าถึงและใช้งาน GPT-5-Codex-Mini

OpenAI ได้ประกาศอัปเดตหลายรายการเมื่อเร็วๆ นี้ รวมถึงการเปิดตัวโมเดล GPT-5-Codex-Mini การปรับปรุงขีดจำกัดอัตราสำหรับลำดับชั้นผู้ใช้หลายคน และการปรับปรุงประสิทธิภาพการประมวลผลโมเดล

OpenAI's GPT-5-โคเด็กซ์-มินิ เป็น GPT-5-Codex เวอร์ชันใหม่ที่มุ่งเน้นนักพัฒนาโดยเฉพาะ มีขนาดเล็กลง ประหยัดต้นทุน และปริมาณงาน ออกแบบมาเพื่อรองรับการเขียนโค้ดส่วนใหญ่ของ GPT-5-Codex แต่มีต้นทุนต่ำกว่ามากและมีปริมาณการใช้งานที่สูงกว่า เวอร์ชัน "Mini" นี้ถูกวางตำแหน่งให้เป็นตัวเลือกที่ใช้งานได้จริงสำหรับเซสชันการเขียนโค้ดที่ยาวนาน ระบบอัตโนมัติเบื้องหลัง และเวิร์กโฟลว์ของนักพัฒนาที่มีความถี่สูง ซึ่งความสามารถสูงสุดแบบดิบๆ มีความสำคัญน้อยกว่าการได้รับโทเค็น/คำขอเพิ่มเติมสำหรับแผนเดียวกัน

GPT-5-Codex-Mini คืออะไร และมีคุณลักษณะอย่างไร?

GPT-5-Codex-Mini เป็นโมเดล GPT-5-Codex ของ OpenAI ที่กะทัดรัดและคุ้มค่า ซึ่งออกแบบมาเฉพาะสำหรับพื้นผิวผลิตภัณฑ์ Codex (การผสานรวม CLI และ IDE) โดยวางตำแหน่งเป็นโมเดล “ขนาดเล็กกว่า คุ้มค่ากว่า” ที่แลกกับความสามารถสูงสุดเพียงเล็กน้อย แลกกับการใช้ทรัพยากรที่ลดลงอย่างมาก และโควต้าการใช้งานที่สูงขึ้นสำหรับเวิร์กโฟลว์แบบอินเทอร์แอคทีฟของนักพัฒนา โมเดลขนาดเล็กนี้มีวัตถุประสงค์เพื่อให้นักพัฒนาสามารถเขียนโค้ดได้มากขึ้น (OpenAI อธิบายคร่าวๆ) ใช้งานได้มากกว่า 4 เท่า สำหรับระดับการสมัครใช้งาน ChatGPT เดียวกัน) ในขณะที่ยังคงรักษาความหน่วงและต้นทุนให้ต่ำสำหรับงานวิศวกรรมทั่วไปที่มีการกำหนดไว้อย่างชัดเจน

ในด้านสมรรถนะ GPT-5-Codex-Mini สืบทอดคุณสมบัติหลักของกลุ่มผลิตภัณฑ์ Codex ได้แก่ ความเข้าใจเชิงลึกเกี่ยวกับฐานโค้ดและการดำเนินการงานหลายขั้นตอนในลักษณะ "ตัวแทน" นักพัฒนาสามารถส่งคำสั่งภาษาธรรมชาติ โค้ดสั้นๆ ภาพหน้าจอ หรือไดอะแกรมการออกแบบอินเทอร์เฟซไปยัง Codex ในเทอร์มินัลแบบอินเทอร์แอคทีฟได้ โดยใช้คุณสมบัติ Codex CLI แบบจำลองนี้จะจัดทำแผนงานก่อน จากนั้นจะเรียกดูไฟล์ แก้ไขโค้ด รันคำสั่ง และทดสอบโดยอัตโนมัติหลังจากได้รับการอนุมัติจากผู้ใช้

จากมุมมองแบบโมดัล ผลิตภัณฑ์ Codex อนุญาตให้แนบรูปภาพ (เช่น ภาพหน้าจอ UI แบบร่างการออกแบบ หรือภาพหน้าจอข้อความแสดงข้อผิดพลาด) เข้ากับเซสชันในเทอร์มินัลหรือ IDE โมเดลสามารถเข้าใจทั้งเนื้อหาข้อความและรูปภาพ แต่ผลลัพธ์ยังคงเป็นโค้ดข้อความและคำอธิบายเป็นหลัก ดังนั้น GPT-5-Codex-Mini จึงถือเป็นโมเดลตัวแทนโค้ดที่เน้น "อินพุตข้อความ + รูปภาพ, เอาต์พุตข้อความ" เป็นหลัก และไม่ดำเนินการงานต่างๆ เช่น การสร้างภาพ การสร้างเสียง หรือการสร้างวิดีโอ

GPT-5-Codex-Mini เปรียบเทียบกับ GPT-5-Codex ได้อย่างไร?

มีอะไรใหม่ใน Codex?

นอกจาก GPT-5-Codex-Mini ที่ใช้งานได้จริงแล้ว OpenAI ยังได้เพิ่มขีดจำกัดอัตรา Codex ขึ้น 50% อย่างสม่ำเสมอสำหรับระดับผู้ใช้ ChatGPT Plus, Business และ Edu ซึ่งช่วยเพิ่มขีดจำกัดคำขอที่ใช้งานได้อย่างมีนัยสำคัญ ขณะเดียวกัน ผู้ใช้ ChatGPT Pro จะได้รับสิทธิ์การประมวลผลแบบลำดับความสำคัญ เพื่อปรับปรุงความเร็วในการตอบสนองและประสบการณ์การดำเนินงาน

นอกจากนี้ OpenAI ยังได้อัปเกรดโมเดล GPT-5-Codex เล็กน้อย เพื่อเพิ่มประสิทธิภาพการทำงานในสถานการณ์การทำงานร่วมกัน โมเดลที่อัปเดตนี้แสดงให้เห็นถึงการปรับปรุงตัวชี้วัดการประเมินที่สำคัญหลายจุดเปอร์เซ็นต์ ประสิทธิภาพการใช้งานโทเค็นเพิ่มขึ้นประมาณ 3% และความทนทานที่มากขึ้นในการจัดการกรณีขอบ จึงช่วยลดความจำเป็นในการให้คำแนะนำแก่ผู้ใช้

ระดับผู้ใช้จีพีที-5-โคเด็กซ์GPT-5-โคเด็กซ์-มินิ
พลัส/บิซ/อีดูเพิ่มปริมาณข้อความ 1.5 เท่าตามลำดับเพิ่มปริมาณข้อความ 6 เท่าตามลำดับ

GPT-5-Codex-Mini เทียบกับ GPT-5-Codex: ความแตกต่างของเกณฑ์มาตรฐาน

GPT-5-Codex-Mini เมื่อเทียบกับเวอร์ชันดั้งเดิม ประสิทธิภาพลดลงเล็กน้อย แต่นักพัฒนาจะได้รับเครดิตการใช้งานเพิ่มขึ้นประมาณสี่เท่า ในการทดสอบ SWE-bench Verified พบว่า GPT-5 High ได้คะแนน 72.8%, GPT-5-Codex ได้คะแนน 74.5% และ GPT-5-Codex-Mini ได้คะแนน 71.3%

Codex (และรูปแบบมินิ) ใช้โทเค็นน้อยลงอย่างมากสำหรับการโต้ตอบแบบเบา—วัสดุของ OpenAI อ้างว่ามีการลดลงในระดับสิบเปอร์เซ็นต์สำหรับคำเตือนง่ายๆ (เช่น ตัวเลขที่อ้างถึง) โทเค็นน้อยลง ≈93.7% เกี่ยวกับการโต้ตอบน้ำหนักเบาสำหรับตระกูล Codex เทียบกับ GPT-5 ในบางสถานการณ์)

วิธีการเข้าถึงและใช้งาน GPT-5-Codex-Mini

GPT-5-Codex-Mini เทียบกับ GPT-5-Codex: ความแตกต่างของคุณสมบัติ

  • ขนาดและราคา: Mini มีขนาดเล็กกว่าและคุ้มค่ากว่าอย่างเห็นได้ชัด OpenAI ระบุว่ารองรับการใช้งานได้มากขึ้นประมาณ 4 เท่าภายใต้ข้อจำกัดการสมัครใช้งานแบบเดียวกัน นี่คือการเพิ่มประสิทธิภาพโควต้า/ประสิทธิภาพสำหรับงานนักพัฒนาทั่วไป
  • ซองความสามารถ: GPT-5-Codex ยังคงเป็นตัวเลือกที่มีขีดความสามารถสูงกว่าสำหรับงานเอเจนต์ที่ซับซ้อนและยาวนาน (การรีแฟกเตอร์ขนาดใหญ่ การตรวจสอบโค้ดอย่างละเอียด และรอบการทดสอบที่ขยายออกไป) Mini ได้รับการปรับแต่งให้ทำงานรวดเร็วขึ้นและใช้ทรัพยากรน้อยลงสำหรับการโต้ตอบสั้นๆ ที่เกิดขึ้นบ่อยครั้ง
  • ขีดจำกัดความหน่วงและอัตรา: โดยทั่วไปแล้ว Mini จะมอบความหน่วงเวลาที่ต่ำกว่าและอนุญาตให้มีอัตราจำกัดที่สูงกว่าต่อแผน ทำให้เหมาะสำหรับเวิร์กโฟลว์แบบโต้ตอบที่มีความหนาแน่น
  • พื้นผิวเริ่มต้น: Mini มีให้เป็นโมเดลที่เลือกได้ใน Codex CLI และ IDE Extension ส่วน GPT-5-Codex เป็นค่าเริ่มต้นสำหรับงานบนคลาวด์และการตรวจสอบโค้ดเชิงลึกใน Codex

เมื่อใดควรใช้ Mini หรือ Full Codex

  • ใช้ มินิ สำหรับ: การสร้างนั่งร้าน การสร้างโค้ดซ้ำ การรีแฟกเตอร์ขนาดเล็ก การดำเนินการแบบโต้ตอบในระหว่างการแก้ไข และเมื่อทำงานภายใต้โควตาหรือข้อจำกัดด้านต้นทุน
  • ใช้ จีพีที-5-โคเด็กซ์ สำหรับ: การตรวจสอบโค้ดอย่างครอบคลุม งานอัตโนมัติหลายชั่วโมง การรีแฟกเตอร์ที่ซับซ้อน และงานที่ต้องใช้การใช้เหตุผลที่แข็งแกร่งที่สุดของโมเดลและการดำเนินการตามการทดสอบ

ฉันจะเข้าถึง GPT-5-Codex-Mini (CLI, IDE, API) ได้อย่างไร

Codex CLI (เทอร์มินัลก่อน)

เปิดตัว OpenAI gpt-5-codex-mini เป็นตัวเลือกโมเดลภายใน Codex CLI รูปแบบการใช้งานทั่วไปเป็นไปตามเวิร์กโฟลว์ของ Codex CLI: เริ่มเซสชันแบบอินเทอร์แอคทีฟ ระบุโมเดล แนบไฟล์หรือภาพหน้าจอ เรียกใช้ "งาน Codex Cloud" และอื่นๆ อีกมากมาย CLI ยังรองรับการทำงานแบบรวดเร็ว /model การสลับระหว่างเต็ม gpt-5-codex และ gpt-5-codex-miniเมื่อรันครั้งแรก คุณจะต้องยืนยันตัวตนโดยใช้บัญชี ChatGPT/Pro/Enterprise ของคุณ (หรือระบุรหัส API) CLI มีคำสั่งต่างๆ ที่ช่วยให้ Codex สามารถสแกนฐานโค้ด รันการทดสอบ เปิด REPL หรือใช้คำแนะนำแพตช์ได้

ตัวอย่าง (เซสชันโต้ตอบ Codex CLI):

# Install Codex CLI (npm)

npm i -g @openai/codex

# or Homebrew on macOS

brew install --cask codex

# Launch in a repo

cd myproject

# Open a codex interactive session

codex

# In the session you can switch the model:

# (this is typed in the Codex TUI)
> /model gpt-5-codex-mini

# Ask Codex to generate a unit test

> Write pytest tests for function `calculate_discount` in discounts.py

การไหลดังกล่าวสะท้อนค่าเริ่มต้น Codex CLI ใหม่ โดยที่เครื่องมือจะแนะนำ Mini ใกล้ถึงขีดจำกัดการใช้งาน

ส่วนขยาย VS Code / IDE

ใช่ — ส่วนขยาย Codex IDE (VS Code) มีอยู่แล้ว gpt-5-codex-mini เป็นตัวเลือกหนึ่ง ติดตั้งส่วนขยาย Codex ใน Visual Studio Code เพื่อรับการเติมโค้ดแบบอินไลน์ คำแนะนำในการรีแฟกเตอร์ และการแก้ไขปัญหาอย่างรวดเร็วด้วย AI ส่วนขยายนี้ยังแสดงการดำเนินการด่วน (สร้างโค้ด อธิบายโค้ดที่เลือก รีแฟกเตอร์) และสามารถเรียกใช้งาน Codex Cloud จากตัวแก้ไข ขั้นตอน VS Code:

  1. ติดตั้งส่วนขยาย OpenAI Codex / ChatGPT สำหรับ VS Code
  2. ลงชื่อเข้าใช้ด้วยบัญชี ChatGPT ของคุณ (Plus/Pro/Business)
  3. เปิดจานคำสั่ง: Cmd/Ctrl+Shift+P → Codex: Set Model → เลือก gpt-5-codex-mini.
  4. ใช้คำสั่งอินไลน์ (เลือกโค้ด → คลิกขวา → “อธิบายด้วย Codex” หรือ กดปุ่มลัดที่กำหนดค่าไว้)

ตัวอย่าง: คำสั่งอินไลน์ของ VS Code (ขั้นตอนจำลอง)

  • เลือกฟังก์ชั่นใน user_service.py.
  • ข่าวประชาสัมพันธ์ Cmd/Ctrl+Shift+P → Codex: Explain Selection หรือใช้คลิกขวา → “อธิบายด้วย Codex”
  • ส่วนขยายจะเปิดแผงด้านข้างพร้อมคำอธิบายของ Mini การทดสอบที่แนะนำ และปุ่ม "สร้าง PR" แบบคลิกเดียวที่ใช้งาน Codex Cloud เพื่อส่งสาขาเพื่อตรวจสอบ

แล้ว API ล่ะ ฉันสามารถเรียกใช้จากแอปของฉันได้ไหม

การประกาศของ OpenAI บ่งชี้ว่า การรองรับ API กำลังจะมาเร็วๆ นี้ สำหรับ GPT-5-Codex-Mini; ในขณะที่เขียน โมเดลจะพร้อมใช้งานใน Codex toolchain ก่อน (CLI/IDE) ซึ่งหมายความว่าไคลเอนต์ API การผลิตควรเตรียมพร้อมสำหรับชื่อโมเดล gpt-5-codex-mini ใน Requests/Responses API เมื่อเผยแพร่แล้ว ในระหว่างนี้ คุณสามารถสร้างต้นแบบด้วย Codex CLI และ IDE flows ได้

เมื่อเปิดใช้งานการเข้าถึง API การโทรทั่วไป (รูปแบบการตอบกลับ) อาจมีลักษณะดังนี้:

# illustrative — check OpenAI docs for final param names

from openai import OpenAI
client = OpenAI(api_key="sk-...")

resp = client.responses.create(
  model="gpt-5-codex-mini",
  input="Write a Python function that validates an email address and includes unit tests.",
  max_tokens=512,
  temperature=0.2
)
print(resp.output_text)

แนวทางปฏิบัติที่ดีที่สุดสำหรับวิศวกรรมอย่างรวดเร็วด้วย Codex Mini คืออะไร

ด้านล่างนี้คือแนวทางปฏิบัติและรูปแบบที่ดีที่สุดที่ผ่านการทดสอบภาคสนามอย่างเป็นรูปธรรมเพื่อให้ได้รับประโยชน์สูงสุดจาก Codex Mini ในเวิร์กโฟลว์ทางวิศวกรรมการผลิต

1) กลยุทธ์การเลือกโมเดล — ผสมผสานและจับคู่

ใช้ Mini สำหรับงานที่มีความถี่สูงและมีความซับซ้อนต่ำ (การจัดรูปแบบ การรีแฟกเตอร์ขนาดเล็ก การทดสอบอัตโนมัติ) และกลับไปใช้ Codex เต็มรูปแบบสำหรับงานออกแบบที่ซับซ้อน การดีบักเชิงลึก หรือการแปลงข้อมูลขนาดใหญ่ทั่วทั้งรีโพ สลับการทำงานอัตโนมัติ: Codex CLI แนะนำ Mini ไว้แล้วเมื่อใช้งานไปแล้ว 90% และคุณสามารถเขียนสคริปต์ได้ /model การสลับเครื่องมือของคุณเพื่อเลือกโมเดลตามความซับซ้อนของงาน

2) เทมเพลตวิศวกรรมพร้อมท์

สร้างเทมเพลตพรอมต์ขนาดเล็กที่กำหนดค่าได้สำหรับงานที่ทำซ้ำได้ เช่น การสร้างการทดสอบ ร่างบันทึกการเปลี่ยนแปลง การสร้างข้อความคอมมิท และคำอธิบาย PR จัดเก็บสิ่งเหล่านี้ไว้เป็นสไนปเป็ตที่นำมาใช้ซ้ำได้ในที่เก็บของคุณ หรือเป็นพรอมต์ที่ตั้งไว้ล่วงหน้าของ Codex

ตัวอย่างเทมเพลตคำเตือนสำหรับการทดสอบยูนิต:

# Template: generate_pytests

System: You are a precise Python developer. Produce pytest tests.
User: Given the function below, produce parametrized pytest functions that cover typical edge cases.
--- file: discounts.py
<insert function>
---
Return only valid Python test code with imports and fixtures.

3) สร้างระบบความปลอดภัยอัตโนมัติ — การอนุมัติและการควบคุม CI

อย่าอนุญาตให้โมเดลพุชโค้ดโดยตรงโดยไม่ได้รับอนุมัติจากมนุษย์ ใช้โหมดการอนุมัติของ Codex และงาน Codex Cloud เพื่อสร้างความแตกต่างและกำหนดให้ต้องมีการอนุมัติจากมนุษย์ใน CI Codex CLI รองรับ "โหมดการอนุมัติ" ดังนั้นการแก้ไขจะต้องได้รับการอนุมัติก่อนนำไปใช้

4) การแคชและการเรียกแบบจำลองซ้ำซ้อน

สำหรับการแจ้งเตือนซ้ำๆ (เช่น การอธิบายฟังก์ชัน) ให้แคชการตอบสนองที่เชื่อมโยงกับการแจ้งเตือน + แฮชไฟล์ ซึ่งจะช่วยลดการเรียกซ้ำซ้อนและทำให้โปรไฟล์ต้นทุนสามารถคาดการณ์ได้

5) ใช้การสตรีม + ความแตกต่างที่เพิ่มขึ้น

หากเป็นไปได้ ให้ขอเอาต์พุตแบบสตรีมมิ่งและส่วนต่างที่เพิ่มขึ้น แทนที่จะเขียนไฟล์ใหม่ทั้งหมด ซึ่งจะช่วยลดการใช้โทเค็นและช่วยให้ผู้ตรวจสอบเห็นการเปลี่ยนแปลงที่ตรงเป้าหมาย

6) การทดสอบยูนิต-เครื่องกำเนิดไฟฟ้ากระแสแรก

สร้างการทดสอบและรันการทดสอบแบบโลคัลในสภาพแวดล้อมชั่วคราว หากการทดสอบล้มเหลว ให้ทำซ้ำโดยใช้โมเดลที่จัดเตรียมวิธีแก้ไขปัญหาการทดสอบล้มเหลว กำหนดให้แต่ละรอบการทำซ้ำเป็นพรอมต์แบบแยกส่วนพร้อมผลลัพธ์การทดสอบ

ตัวอย่างโค้ดอัตโนมัติ Codex CLI (bash):

# Generate tests

codex --model gpt-5-codex-mini request "Generate pytest tests for discounts.py" > generated_tests.py

# Run tests locally

pytest generated_tests.py -q || {
  echo "Tests failed. Opening Codex for debugging..."
  codex --model gpt-5-codex-mini request "Tests failed. Here's pytest output: $(tail -n 50 pytest_output.txt). Propose a fix for discounts.py."
}

สรุป

GPT-5-Codex-Mini ถือเป็นการพัฒนาผลิตภัณฑ์ที่เน้นการใช้งานจริง โดยยอมรับว่าเวิร์กโฟลว์ของนักพัฒนามักถูกครอบงำด้วยปฏิสัมพันธ์ระยะสั้นจำนวนมาก ซึ่งความหน่วง ต้นทุน และการไหลที่ต่อเนื่องเป็นสิ่งสำคัญ ด้วยการนำเสนอระดับย่อยที่มุ่งเน้นการใช้งาน IDE และ CLI OpenAI ช่วยให้ทีมงานสามารถปรับขนาดความช่วยเหลือด้านการเขียนโค้ดแบบรายวันได้ โดยไม่ต้องเรียกใช้โมเดลต้นทุนสูงสุดสำหรับการโต้ตอบแต่ละครั้งทันที

นักพัฒนาสามารถเข้าถึงได้ API GPT-5-โคเด็กซ์ ,GPT-5 โปร API ผ่านทาง CometAPI รุ่นล่าสุดของ cometAPI ที่ระบุไว้เป็นข้อมูล ณ วันที่เผยแพร่บทความ ก่อนเข้าถึง โปรดตรวจสอบให้แน่ใจว่าคุณได้เข้าสู่ระบบ CometAPI และได้รับรหัส API แล้วโคเมทเอพีไอ เสนอราคาที่ต่ำกว่าราคาอย่างเป็นทางการมากเพื่อช่วยคุณบูรณาการ

พร้อมไปหรือยัง?→ ลงทะเบียน CometAPI วันนี้ !

หากคุณต้องการทราบเคล็ดลับ คำแนะนำ และข่าวสารเกี่ยวกับ AI เพิ่มเติม โปรดติดตามเราที่ VKX และ ไม่ลงรอยกัน!

อ่านเพิ่มเติม

500+ โมเดลใน API เดียว

ลดราคาสูงสุด 20%