API GPT-OSS-20B

CometAPI
AnnaAug 7, 2025
API GPT-OSS-20B

gpt-oss-20b คือ แบบจำลองการใช้เหตุผลแบบพกพาและมีน้ำหนักเปิด การเสนอ ประสิทธิภาพระดับมินิ o3, การใช้เครื่องมือที่เป็นมิตรกับตัวแทนและอิ่ม การสนับสนุนห่วงโซ่แห่งความคิด ภายใต้ใบอนุญาตแบบอนุญาต แม้ว่าจะไม่ได้ทรงพลังเท่ากับรุ่น 120 B แต่ก็เหมาะอย่างยิ่งสำหรับ การปรับใช้บนอุปกรณ์ ความหน่วงต่ำ และคำนึงถึงความเป็นส่วนตัวนักพัฒนาควรชั่งน้ำหนักสิ่งที่ทราบ ข้อจำกัดในการแต่งเพลงโดยเฉพาะงานที่ต้องใช้ความรู้จำนวนมาก และควรปรับมาตรการความปลอดภัยให้เหมาะสม

ข้อมูลพื้นฐาน

gpt-oss-20b คือ แบบจำลองการให้เหตุผลน้ำหนักเปิด 21 พันล้านพารามิเตอร์ เปิดตัวโดย OpenAI ภายใต้ ใบอนุญาต Apache 2.0การเปิดใช้งาน การเข้าถึงน้ำหนักเต็มรูปแบบเพื่อดาวน์โหลด ปรับแต่ง และแจกจ่ายซ้ำนับเป็นการเปิดตัวโมเดลน้ำหนักเปิดรุ่นแรกของ OpenAI นับตั้งแต่ GPT‑2 ในปี 2019 และได้รับการปรับให้เหมาะสมสำหรับ การปรับใช้ขอบและการอนุมานในท้องถิ่น บนระบบด้วย ≥ 16 GB VRAM.

  • พารามิเตอร์: รวมทั้งหมด 21 พันล้านเหรียญ โดย 3.6 พันล้านเหรียญมีการใช้งานต่อโทเค็น
  • สถาปัตยกรรม: หม้อแปลงไฟฟ้าพร้อม ส่วนผสมของผู้เชี่ยวชาญ (MoE)
  • หน้าต่างบริบท: โทเค็นสูงสุด 128 รายการสำหรับความเข้าใจในรูปแบบยาว
  • ใบอนุญาต: Apache 2.0 ช่วยให้สามารถใช้ในทางวิชาการและเชิงพาณิชย์ได้อย่างไม่มีข้อจำกัด ()

คุณสมบัติและสถาปัตยกรรมทางเทคนิค

ข้อมูลจำเพาะรุ่น

  • พารามิเตอร์: รวม 21 บาท 3.6 B ใช้งานต่อโทเค็น ผ่านสถาปัตยกรรมแบบผสมผสานของผู้เชี่ยวชาญ (MoE) ด้วย ผู้เชี่ยวชาญ 32 คนต่อชั้น, 4 ใช้งานต่อโทเค็น .
  • เลเยอร์: 24, หน้าต่างบริบทถึง โทเค็น 128K, โทเค็นเอาต์พุตสูงสุดถึง 32K ในการใช้งานบางกรณี
  • ความสนใจและความจำ:รูปแบบความสนใจแบบหนาแน่นสลับกับแบบเบาบาง; ความสนใจแบบหลายแบบสอบถามแบบกลุ่ม (ขนาดกลุ่ม = 8) เพื่อประสิทธิภาพในการอนุมาน

การฝึกอบรมและการควบคุมการใช้เหตุผล

  • ได้รับการฝึกอบรมเกี่ยวกับข้อความภาษาอังกฤษเป็นหลักโดยเน้นด้าน STEM การเขียนโค้ด และความรู้ทั่วไป
  • รองรับ ห่วงโซ่แห่งความคิด (CoT) การใช้เหตุผลและการปรับ ระดับการใช้เหตุผล (ต่ำ, กลาง, สูง) ขึ้นอยู่กับความซับซ้อนของงาน

ประสิทธิภาพมาตรฐาน

  • ไม้ขีดหรือ เกินประสิทธิภาพของโมเดล o3‑mini ของ OpenAI ตามเกณฑ์มาตรฐานเช่น MMLU, AIME, HLE, HealthBench, Codeforces, Tau‑Bench แม้จะมีขนาดเล็กก็ตาม
  • มีประสิทธิภาพเหนือกว่ารุ่นที่เป็นกรรมสิทธิ์ เช่น OpenAI o1, GPT‑4o และ o4‑mini ในด้านสุขภาพและการใช้เหตุผลทางคณิตศาสตร์ งานที่ระดับการใช้เหตุผลสูง
  • เมื่อเปรียบเทียบกับ GPT‑OSS‑120B ที่มีขนาดใหญ่กว่า (117 B) GPT‑OSS‑XNUMXB จะตามหลังในงานที่อาศัยการใช้เหตุผลเชิงสัญลักษณ์เชิงลึกหรือความรู้ที่กว้างขวาง (เช่น GPQA) แต่ยังคงมีประสิทธิภาพในการเข้ารหัสและโดเมนด้านสุขภาพ

การขอ 20 B ตัวแปรนี้ยังน่าประทับใจ: มันเป็นคู่แข่ง โอวันมินิ ในชุดเดียวกันแม้จะมีขนาดเล็กกว่า แต่ก็แสดงให้เห็นถึงความสามารถในการปรับขนาดการใช้เหตุผลที่มีประสิทธิภาพด้วย MoE

  • MMLU (ความเข้าใจภาษามัลติทาสก์ขนาดใหญ่): ความแม่นยำ ~88%
  • Codeforces Elo (การใช้เหตุผลในการเขียนโค้ด): ~2205
  • AIME (การแข่งขันคณิตศาสตร์ด้วยเครื่องมือ): ~87.9%
  • ม้านั่งเพื่อสุขภาพ:มีประสิทธิภาพเหนือกว่า O4-mini อย่างมีนัยสำคัญในงาน QA ทางคลินิกและการวินิจฉัย
  • Tau-Bench (งานค้าปลีก + การให้เหตุผล): ~62% โดยเฉลี่ย

รุ่นรุ่นและการเปรียบเทียบ

รุ่นค่าที่บันทึกไว้พารามิเตอร์ที่ใช้งานอยู่ความต้องการฮาร์ดแวร์ประสิทธิภาพมาตรฐาน
gpt-oss-20b21 ข3.6 ข≥ 16 GB GPU หรือบนอุปกรณ์เปรียบได้กับ โอโฟร์มินิ
จีพีที-ออส-120b117 ข5.1 ขจีพียู 80GB+ตรงหรือเกิน โอโฟร์มินิ

ได้รับการออกแบบให้เป็นคู่หูน้ำหนักเบากับ จีพีที-ออส-120บีGPT‑OSS‑20B มอบความสามารถในการพกพา ในขณะที่ยังคงประสิทธิภาพการทำงานที่แข็งแกร่งแม้ในสภาวะที่มีทรัพยากรจำกัด โดดเด่นกว่าโมเดล OpenAI ที่เป็นกรรมสิทธิ์ตรงที่สามารถเข้าถึงและปรับแต่งได้อย่างเปิดกว้าง


ข้อ จำกัด

  • การเรียกคืนความรู้ที่ต่ำกว่า สำหรับงานที่ซับซ้อนเช่น GPQA เมื่อเปรียบเทียบกับรุ่นที่มีขนาดใหญ่กว่า
  • รายงานจากผู้ใช้งาน บ่งชี้ถึงความแปรปรวนในประสิทธิภาพการใช้งานจริง โดยเฉพาะอย่างยิ่งสำหรับการเขียนโค้ดหรือการแจ้งเตือนความรู้ทั่วไป บางคนเชื่อว่าสิ่งนี้เกิดจากการนำไปใช้ในระยะเริ่มต้นหรือการใช้การแจ้งเตือนในทางที่ผิด
  • ความเสี่ยงด้านความปลอดภัยและการใช้งานในทางที่ผิด:ในขณะที่ OpenAI ประเมินตัวแปร gpt-oss ที่ปรับแต่งอย่างละเอียดเพื่อการต่อต้าน ตัวแปรเหล่านั้นก็ยังไม่สามารถเข้าถึงความสามารถสูงในโดเมนความเสี่ยงทางชีวภาพหรือไซเบอร์ อย่างไรก็ตาม ผู้ใช้ที่ปรับใช้กรณีการใช้งานขนาดใหญ่ก็อาจต้องมีการป้องกันเพิ่มเติม

ใช้กรณี

OpenAI ได้ออกแบบ GPT‑OSS เพื่อรองรับ กรณีการใช้งานที่หลากหลายตั้งแต่แอปสำหรับผู้บริโภคไปจนถึงการวิเคราะห์ระดับองค์กร เวอร์ชัน 20B ได้รับการปรับให้เหมาะสมสำหรับการดำเนินการภายในเครื่อง ซึ่งสามารถทำงานบนอุปกรณ์ที่มีขนาดเล็กเพียง 16GB ของแรมเช่น แล็ปท็อปหรือ MacBook ระดับไฮเอนด์ที่มีชิปซีรีส์ M. GPT‑OSS‑20B เหมาะสำหรับ:

  • การอนุมานแบบท้องถิ่น/ออฟไลน์ บนพีซี Windows (ผ่าน Windows AI Foundry), macOS หรืออุปกรณ์ edge ที่ใช้ Snapdragon
  • เวิร์กโฟลว์ของตัวแทน:การดำเนินการรหัส การใช้เครื่องมือ ตัวแทนบนเบราว์เซอร์ หรือผู้ช่วยอัตโนมัติในการตั้งค่าแบนด์วิดท์ที่จำกัด
  • การสร้างต้นแบบอย่างรวดเร็วและการปรับแต่งอย่างละเอียดโดยเฉพาะสำหรับนักพัฒนาที่ทำงานโดยไม่มีโครงสร้างพื้นฐานบนคลาวด์หรือมีข้อจำกัดด้านความเป็นส่วนตัว

การเปรียบเทียบรุ่นอื่นๆ

  • gpt-oss-20bเทียบกับ o3‑mini / o4‑mini:GPT‑OSS‑20B แข่งขันกับ o3‑mini ในด้านความแม่นยำและการใช้เหตุผลร่วมกัน มีประสิทธิภาพและเปิดกว้างกว่า o4‑mini แต่มีประสิทธิภาพต่ำกว่าเมื่อเทียบกับ จีพีที-ออส-120บี เกี่ยวกับงานการใช้เหตุผลอันท้าทาย
  • gpt-oss-20b เทียบกับ LLaMA 4, GLM‑4.5, DeepSeek:GPT‑OSS‑20B นำความโปร่งใสของน้ำหนักเปิดแบบเต็มรูปแบบมาภายใต้ Apache 2.0 ซึ่งแตกต่างจากโมเดลแบบกึ่งเปิด แต่ผู้ใช้รายงานว่าในบางกรณีชอบ GLM‑4.5‑AIR มากกว่าในด้านคุณภาพการให้เหตุผล

วิธีการโทร จีพีที-ออส-20บี API จาก CometAPI

gpt-oss-20b ราคา API ใน CometAPI ลด 20% จากราคาอย่างเป็นทางการ:

อินพุตโทเค็น$0.08
โทเค็นเอาท์พุต$0.32

ขั้นตอนที่ต้องดำเนินการ

  • เข้าสู่ระบบเพื่อ โคเมตาปิดอทคอม. หากคุณยังไม่ได้เป็นผู้ใช้ของเรา กรุณาลงทะเบียนก่อน
  • รับรหัส API ของข้อมูลรับรองการเข้าถึงของอินเทอร์เฟซ คลิก "เพิ่มโทเค็น" ที่โทเค็น API ในศูนย์ส่วนบุคคล รับรหัสโทเค็น: sk-xxxxx และส่ง
  • รับ url ของเว็บไซต์นี้: https://api.cometapi.com/

ใช้วิธีการ

  1. เลือก“gpt-oss-20b” จุดสิ้นสุดในการส่งคำขอ API และกำหนดเนื้อหาคำขอ วิธีการคำขอและเนื้อหาคำขอได้รับจากเอกสาร API ของเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบ Apifox เพื่อความสะดวกของคุณอีกด้วย
  2. แทนที่ ด้วยคีย์ CometAPI จริงจากบัญชีของคุณ
  3. แทรกคำถามหรือคำขอของคุณลงในช่องเนื้อหา—นี่คือสิ่งที่โมเดลจะตอบสนอง
  4. ประมวลผลการตอบสนองของ API เพื่อรับคำตอบที่สร้างขึ้น

CometAPI มอบ REST API ที่เข้ากันได้อย่างสมบูรณ์ เพื่อการย้ายข้อมูลที่ราบรื่น รายละเอียดสำคัญ  เอกสาร API:

  • พารามิเตอร์หลักpromptmax_tokens_to_sampletemperaturestop_sequences
  • ปลายทาง: https://api.cometapi.com/v1/chat/completions
  • พารามิเตอร์รุ่น: "gpt-oss-20b"
  • รับรองความถูกต้อง: Bearer YOUR_CometAPI_API_KEY
  • ชนิดของเนื้อหา: application/json .

ตัวอย่างการเรียกใช้ API

แม้ว่าจะเป็นแบบเปิดน้ำหนัก แต่ก็สามารถเข้าถึงโมเดล GPT-OSS ได้ผ่าน API เช่น CometAPI และอื่นๆ สำหรับ จีพีที-ออส-20บีการเรียก CometAPI ทั่วไปมีลักษณะดังนี้:

POST  https://api.cometapi.com/v1/chat/completions
{
  "model": "gpt-oss-20b",
  "messages": [{ "role": "system", "content": "Reasoning: high" },
               { "role": "user", "content": "Solve bilateral integral…" }],
  "max_tokens": 2048,
  "temperature": 0.0
}

สิ่งนี้รองรับการเรียกฟังก์ชัน โครงร่างเอาต์พุตที่มีโครงสร้าง การรวมเครื่องมือ และการควบคุมการใช้เหตุผลผ่านพรอมต์ระบบ

ดูเพิ่มเติม จีพีที-โอเอสเอส-120บี

SHARE THIS BLOG

อ่านเพิ่มเติม

500+ โมเดลใน API เดียว

ลดราคาสูงสุด 20%