gpt-oss-20b คือ แบบจำลองการใช้เหตุผลแบบพกพาและมีน้ำหนักเปิด การเสนอ ประสิทธิภาพระดับมินิ o3, การใช้เครื่องมือที่เป็นมิตรกับตัวแทนและอิ่ม การสนับสนุนห่วงโซ่แห่งความคิด ภายใต้ใบอนุญาตแบบอนุญาต แม้ว่าจะไม่ได้ทรงพลังเท่ากับรุ่น 120 B แต่ก็เหมาะอย่างยิ่งสำหรับ การปรับใช้บนอุปกรณ์ ความหน่วงต่ำ และคำนึงถึงความเป็นส่วนตัวนักพัฒนาควรชั่งน้ำหนักสิ่งที่ทราบ ข้อจำกัดในการแต่งเพลงโดยเฉพาะงานที่ต้องใช้ความรู้จำนวนมาก และควรปรับมาตรการความปลอดภัยให้เหมาะสม
ข้อมูลพื้นฐาน
gpt-oss-20b คือ แบบจำลองการให้เหตุผลน้ำหนักเปิด 21 พันล้านพารามิเตอร์ เปิดตัวโดย OpenAI ภายใต้ ใบอนุญาต Apache 2.0การเปิดใช้งาน การเข้าถึงน้ำหนักเต็มรูปแบบเพื่อดาวน์โหลด ปรับแต่ง และแจกจ่ายซ้ำนับเป็นการเปิดตัวโมเดลน้ำหนักเปิดรุ่นแรกของ OpenAI นับตั้งแต่ GPT‑2 ในปี 2019 และได้รับการปรับให้เหมาะสมสำหรับ การปรับใช้ขอบและการอนุมานในท้องถิ่น บนระบบด้วย ≥ 16 GB VRAM.
- พารามิเตอร์: รวมทั้งหมด 21 พันล้านเหรียญ โดย 3.6 พันล้านเหรียญมีการใช้งานต่อโทเค็น
- สถาปัตยกรรม: หม้อแปลงไฟฟ้าพร้อม ส่วนผสมของผู้เชี่ยวชาญ (MoE)
- หน้าต่างบริบท: โทเค็นสูงสุด 128 รายการสำหรับความเข้าใจในรูปแบบยาว
- ใบอนุญาต: Apache 2.0 ช่วยให้สามารถใช้ในทางวิชาการและเชิงพาณิชย์ได้อย่างไม่มีข้อจำกัด ()
คุณสมบัติและสถาปัตยกรรมทางเทคนิค
ข้อมูลจำเพาะรุ่น
- พารามิเตอร์: รวม 21 บาท 3.6 B ใช้งานต่อโทเค็น ผ่านสถาปัตยกรรมแบบผสมผสานของผู้เชี่ยวชาญ (MoE) ด้วย ผู้เชี่ยวชาญ 32 คนต่อชั้น, 4 ใช้งานต่อโทเค็น .
- เลเยอร์: 24, หน้าต่างบริบทถึง โทเค็น 128K, โทเค็นเอาต์พุตสูงสุดถึง 32K ในการใช้งานบางกรณี
- ความสนใจและความจำ:รูปแบบความสนใจแบบหนาแน่นสลับกับแบบเบาบาง; ความสนใจแบบหลายแบบสอบถามแบบกลุ่ม (ขนาดกลุ่ม = 8) เพื่อประสิทธิภาพในการอนุมาน
การฝึกอบรมและการควบคุมการใช้เหตุผล
- ได้รับการฝึกอบรมเกี่ยวกับข้อความภาษาอังกฤษเป็นหลักโดยเน้นด้าน STEM การเขียนโค้ด และความรู้ทั่วไป
- รองรับ ห่วงโซ่แห่งความคิด (CoT) การใช้เหตุผลและการปรับ ระดับการใช้เหตุผล (ต่ำ, กลาง, สูง) ขึ้นอยู่กับความซับซ้อนของงาน
ประสิทธิภาพมาตรฐาน
- ไม้ขีดหรือ เกินประสิทธิภาพของโมเดล o3‑mini ของ OpenAI ตามเกณฑ์มาตรฐานเช่น MMLU, AIME, HLE, HealthBench, Codeforces, Tau‑Bench แม้จะมีขนาดเล็กก็ตาม
- มีประสิทธิภาพเหนือกว่ารุ่นที่เป็นกรรมสิทธิ์ เช่น OpenAI o1, GPT‑4o และ o4‑mini ในด้านสุขภาพและการใช้เหตุผลทางคณิตศาสตร์ งานที่ระดับการใช้เหตุผลสูง
- เมื่อเปรียบเทียบกับ GPT‑OSS‑120B ที่มีขนาดใหญ่กว่า (117 B) GPT‑OSS‑XNUMXB จะตามหลังในงานที่อาศัยการใช้เหตุผลเชิงสัญลักษณ์เชิงลึกหรือความรู้ที่กว้างขวาง (เช่น GPQA) แต่ยังคงมีประสิทธิภาพในการเข้ารหัสและโดเมนด้านสุขภาพ
การขอ 20 B ตัวแปรนี้ยังน่าประทับใจ: มันเป็นคู่แข่ง โอวันมินิ ในชุดเดียวกันแม้จะมีขนาดเล็กกว่า แต่ก็แสดงให้เห็นถึงความสามารถในการปรับขนาดการใช้เหตุผลที่มีประสิทธิภาพด้วย MoE
- MMLU (ความเข้าใจภาษามัลติทาสก์ขนาดใหญ่): ความแม่นยำ ~88%
- Codeforces Elo (การใช้เหตุผลในการเขียนโค้ด): ~2205
- AIME (การแข่งขันคณิตศาสตร์ด้วยเครื่องมือ): ~87.9%
- ม้านั่งเพื่อสุขภาพ:มีประสิทธิภาพเหนือกว่า O4-mini อย่างมีนัยสำคัญในงาน QA ทางคลินิกและการวินิจฉัย
- Tau-Bench (งานค้าปลีก + การให้เหตุผล): ~62% โดยเฉลี่ย
รุ่นรุ่นและการเปรียบเทียบ
| รุ่น | ค่าที่บันทึกไว้ | พารามิเตอร์ที่ใช้งานอยู่ | ความต้องการฮาร์ดแวร์ | ประสิทธิภาพมาตรฐาน |
|---|---|---|---|---|
gpt-oss-20b | 21 ข | 3.6 ข | ≥ 16 GB GPU หรือบนอุปกรณ์ | เปรียบได้กับ โอโฟร์มินิ |
| จีพีที-ออส-120b | 117 ข | 5.1 ข | จีพียู 80GB+ | ตรงหรือเกิน โอโฟร์มินิ |
ได้รับการออกแบบให้เป็นคู่หูน้ำหนักเบากับ จีพีที-ออส-120บีGPT‑OSS‑20B มอบความสามารถในการพกพา ในขณะที่ยังคงประสิทธิภาพการทำงานที่แข็งแกร่งแม้ในสภาวะที่มีทรัพยากรจำกัด โดดเด่นกว่าโมเดล OpenAI ที่เป็นกรรมสิทธิ์ตรงที่สามารถเข้าถึงและปรับแต่งได้อย่างเปิดกว้าง
ข้อ จำกัด
- การเรียกคืนความรู้ที่ต่ำกว่า สำหรับงานที่ซับซ้อนเช่น GPQA เมื่อเปรียบเทียบกับรุ่นที่มีขนาดใหญ่กว่า
- รายงานจากผู้ใช้งาน บ่งชี้ถึงความแปรปรวนในประสิทธิภาพการใช้งานจริง โดยเฉพาะอย่างยิ่งสำหรับการเขียนโค้ดหรือการแจ้งเตือนความรู้ทั่วไป บางคนเชื่อว่าสิ่งนี้เกิดจากการนำไปใช้ในระยะเริ่มต้นหรือการใช้การแจ้งเตือนในทางที่ผิด
- ความเสี่ยงด้านความปลอดภัยและการใช้งานในทางที่ผิด:ในขณะที่ OpenAI ประเมินตัวแปร gpt-oss ที่ปรับแต่งอย่างละเอียดเพื่อการต่อต้าน ตัวแปรเหล่านั้นก็ยังไม่สามารถเข้าถึงความสามารถสูงในโดเมนความเสี่ยงทางชีวภาพหรือไซเบอร์ อย่างไรก็ตาม ผู้ใช้ที่ปรับใช้กรณีการใช้งานขนาดใหญ่ก็อาจต้องมีการป้องกันเพิ่มเติม
ใช้กรณี
OpenAI ได้ออกแบบ GPT‑OSS เพื่อรองรับ กรณีการใช้งานที่หลากหลายตั้งแต่แอปสำหรับผู้บริโภคไปจนถึงการวิเคราะห์ระดับองค์กร เวอร์ชัน 20B ได้รับการปรับให้เหมาะสมสำหรับการดำเนินการภายในเครื่อง ซึ่งสามารถทำงานบนอุปกรณ์ที่มีขนาดเล็กเพียง 16GB ของแรมเช่น แล็ปท็อปหรือ MacBook ระดับไฮเอนด์ที่มีชิปซีรีส์ M. GPT‑OSS‑20B เหมาะสำหรับ:
- การอนุมานแบบท้องถิ่น/ออฟไลน์ บนพีซี Windows (ผ่าน Windows AI Foundry), macOS หรืออุปกรณ์ edge ที่ใช้ Snapdragon
- เวิร์กโฟลว์ของตัวแทน:การดำเนินการรหัส การใช้เครื่องมือ ตัวแทนบนเบราว์เซอร์ หรือผู้ช่วยอัตโนมัติในการตั้งค่าแบนด์วิดท์ที่จำกัด
- การสร้างต้นแบบอย่างรวดเร็วและการปรับแต่งอย่างละเอียดโดยเฉพาะสำหรับนักพัฒนาที่ทำงานโดยไม่มีโครงสร้างพื้นฐานบนคลาวด์หรือมีข้อจำกัดด้านความเป็นส่วนตัว
การเปรียบเทียบรุ่นอื่นๆ
gpt-oss-20bเทียบกับ o3‑mini / o4‑mini:GPT‑OSS‑20B แข่งขันกับ o3‑mini ในด้านความแม่นยำและการใช้เหตุผลร่วมกัน มีประสิทธิภาพและเปิดกว้างกว่า o4‑mini แต่มีประสิทธิภาพต่ำกว่าเมื่อเทียบกับ จีพีที-ออส-120บี เกี่ยวกับงานการใช้เหตุผลอันท้าทายgpt-oss-20bเทียบกับ LLaMA 4, GLM‑4.5, DeepSeek:GPT‑OSS‑20B นำความโปร่งใสของน้ำหนักเปิดแบบเต็มรูปแบบมาภายใต้ Apache 2.0 ซึ่งแตกต่างจากโมเดลแบบกึ่งเปิด แต่ผู้ใช้รายงานว่าในบางกรณีชอบ GLM‑4.5‑AIR มากกว่าในด้านคุณภาพการให้เหตุผล
วิธีการโทร จีพีที-ออส-20บี API จาก CometAPI
gpt-oss-20b ราคา API ใน CometAPI ลด 20% จากราคาอย่างเป็นทางการ:
| อินพุตโทเค็น | $0.08 |
| โทเค็นเอาท์พุต | $0.32 |
ขั้นตอนที่ต้องดำเนินการ
- เข้าสู่ระบบเพื่อ โคเมตาปิดอทคอม. หากคุณยังไม่ได้เป็นผู้ใช้ของเรา กรุณาลงทะเบียนก่อน
- รับรหัส API ของข้อมูลรับรองการเข้าถึงของอินเทอร์เฟซ คลิก "เพิ่มโทเค็น" ที่โทเค็น API ในศูนย์ส่วนบุคคล รับรหัสโทเค็น: sk-xxxxx และส่ง
- รับ url ของเว็บไซต์นี้: https://api.cometapi.com/
ใช้วิธีการ
- เลือก“
gpt-oss-20b” จุดสิ้นสุดในการส่งคำขอ API และกำหนดเนื้อหาคำขอ วิธีการคำขอและเนื้อหาคำขอได้รับจากเอกสาร API ของเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบ Apifox เพื่อความสะดวกของคุณอีกด้วย - แทนที่ ด้วยคีย์ CometAPI จริงจากบัญชีของคุณ
- แทรกคำถามหรือคำขอของคุณลงในช่องเนื้อหา—นี่คือสิ่งที่โมเดลจะตอบสนอง
- ประมวลผลการตอบสนองของ API เพื่อรับคำตอบที่สร้างขึ้น
CometAPI มอบ REST API ที่เข้ากันได้อย่างสมบูรณ์ เพื่อการย้ายข้อมูลที่ราบรื่น รายละเอียดสำคัญ เอกสาร API:
- พารามิเตอร์หลัก:
prompt,max_tokens_to_sample,temperature,stop_sequences - ปลายทาง: https://api.cometapi.com/v1/chat/completions
- พารามิเตอร์รุ่น: "
gpt-oss-20b" - รับรองความถูกต้อง:
Bearer YOUR_CometAPI_API_KEY - ชนิดของเนื้อหา:
application/json.
ตัวอย่างการเรียกใช้ API
แม้ว่าจะเป็นแบบเปิดน้ำหนัก แต่ก็สามารถเข้าถึงโมเดล GPT-OSS ได้ผ่าน API เช่น CometAPI และอื่นๆ สำหรับ จีพีที-ออส-20บีการเรียก CometAPI ทั่วไปมีลักษณะดังนี้:
POST https://api.cometapi.com/v1/chat/completions
{
"model": "gpt-oss-20b",
"messages": [{ "role": "system", "content": "Reasoning: high" },
{ "role": "user", "content": "Solve bilateral integral…" }],
"max_tokens": 2048,
"temperature": 0.0
}
สิ่งนี้รองรับการเรียกฟังก์ชัน โครงร่างเอาต์พุตที่มีโครงสร้าง การรวมเครื่องมือ และการควบคุมการใช้เหตุผลผ่านพรอมต์ระบบ
ดูเพิ่มเติม จีพีที-โอเอสเอส-120บี


