OpenAI's จีพีที-ออส-120บี ถือเป็นการเปิดตัวน้ำหนักเปิดครั้งแรกขององค์กรนับตั้งแต่ GPT-2 โดยนำเสนอให้กับนักพัฒนา โปร่งใส, ปรับแต่งได้และ ประสิทธิภาพสูง ความสามารถของ AI ภายใต้ ใบอนุญาต Apache 2.0. ออกแบบมาเพื่อความซับซ้อน เหตุผล และ ตัวแทน แอปพลิเคชัน โมเดลนี้ทำให้สามารถเข้าถึงเทคโนโลยีภาษาขั้นสูงขนาดใหญ่ได้อย่างทั่วถึง ช่วยให้สามารถปรับใช้ภายในสถานที่และปรับแต่งอย่างละเอียดได้
คุณสมบัติหลักและปรัชญาการออกแบบ
แบบจำลอง GPT-OSS ได้รับการออกแบบให้เป็นหลักสูตร LLM ทั่วไปที่เน้นเนื้อหาเป็นหลัก แบบจำลองเหล่านี้รองรับงานด้านความรู้ความเข้าใจระดับสูง ซึ่งรวมถึงการใช้เหตุผลเชิงคณิตศาสตร์ การวิเคราะห์เชิงโครงสร้าง และความเข้าใจภาษา แตกต่างจากแบบจำลองเชิงพาณิชย์แบบปิดอย่าง GPT-4 ตรงที่ GPT-OSS อนุญาตให้ดาวน์โหลดและใช้น้ำหนักแบบจำลองได้อย่างเต็มที่ ทำให้นักวิจัยและนักพัฒนาสามารถเข้าถึงเพื่อตรวจสอบ ปรับแต่ง และนำแบบจำลองไปใช้งานบนโครงสร้างพื้นฐานของตนเองได้อย่างที่ไม่เคยมีมาก่อน
ข้อมูลพื้นฐาน
- พารามิเตอร์: รวม 117 พันล้านบาท 5.1 พันล้านบาท คล่องแคล่ว ผ่านทาง ส่วนผสมของผู้เชี่ยวชาญ (MoE)
- ใบอนุญาตประกอบธุรกิจ:Apache 2.0 สำหรับการใช้งานเชิงพาณิชย์และทางวิชาการแบบไม่มีข้อจำกัด
- หน้าต่างบริบท: จนถึง โทเค็น 128Kรองรับอินพุตแบบยาวและการใช้เหตุผลหลายเอกสาร
- ห่วงโซ่แห่งความคิด: เต็ม โคที ผลลัพธ์สำหรับการตรวจสอบและการควบคุมแบบละเอียด
- ผลลัพธ์ที่มีโครงสร้าง: รองรับดั้งเดิมสำหรับ JSON, XML และรูปแบบที่กำหนดเอง
รายละเอียดทางเทคนิค
GPT-OSS ใช้ประโยชน์จาก หม้อแปลงไฟฟ้า กระดูกสันหลังเสริมด้วย ส่วนผสมของผู้เชี่ยวชาญ (MoE) สถาปัตยกรรมเพื่อให้เกิดการเปิดใช้งานแบบเบาบางและลดต้นทุนการอนุมาน จีพีที-ออส-120บี แบบจำลองประกอบด้วย ผู้เชี่ยวชาญ 128 กระจายไปทั่ว 36 เลเยอร์, การเปิดใช้งาน ผู้เชี่ยวชาญ 4 คนต่อโทเค็น (พารามิเตอร์ที่ใช้งาน 5.1 B) ในขณะที่ จีพีที-ออส-20บี ใช้ประโยชน์ ผู้เชี่ยวชาญ 32 เกินกว่า 24 เลเยอร์, การเปิดใช้งาน ผู้เชี่ยวชาญ 4 คนต่อโทเค็น (พารามิเตอร์ที่ใช้งาน 3.6 B) มันใช้ สลับกันหนาแน่นและมีแถบเฉพาะที่ให้ความสนใจเบาบาง, ความสนใจแบบหลายคำถามที่จัดกลุ่ม (ขนาดกลุ่ม 8) และรองรับ 128 K หน้าต่างบริบทโทเค็น—ที่ไม่มีใครเทียบได้ในด้านข้อเสนอแบบ open-weight จนถึงปัจจุบัน ประสิทธิภาพของหน่วยความจำได้รับการปรับปรุงให้ดียิ่งขึ้นด้วย **การวัดปริมาณความแม่นยำแบบผสม 4 บิต** ซึ่งช่วยให้สามารถใช้งานบริบทขนาดใหญ่บนฮาร์ดแวร์ทั่วไปได้
โมเดล GPT-OSS ได้ผ่านการเปรียบเทียบประสิทธิภาพอย่างเข้มงวดกับชุดข้อมูลที่เป็นที่รู้จักดี เผยให้เห็นประสิทธิภาพที่สามารถแข่งขันได้ หรืออาจจะเหนือกว่า เมื่อเปรียบเทียบกับโมเดลกรรมสิทธิ์ที่มีขนาดใกล้เคียงกัน
การเปรียบเทียบประสิทธิภาพและการประเมินผลงาน
ในเกณฑ์มาตรฐาน จีพีที-ออส-120บี ตรงหรือเกินกว่าสิทธิ์เฉพาะของ OpenAI โอวันมินิ รูปแบบ:
- MMLU (ความเข้าใจภาษามัลติทาสก์ขนาดใหญ่): ความแม่นยำ ~88%
- Codeforces Elo (การใช้เหตุผลในการเขียนโค้ด): ~2205
- AIME (การแข่งขันคณิตศาสตร์ด้วยเครื่องมือ): ~87.9%
- ม้านั่งเพื่อสุขภาพ:มีประสิทธิภาพเหนือกว่า O4-mini อย่างมีนัยสำคัญในงาน QA ทางคลินิกและการวินิจฉัย
- Tau-Bench (งานค้าปลีก + การให้เหตุผล): ~62% โดยเฉลี่ย
รุ่น รุ่น
- ตัวแปรเริ่มต้น:
gpt-oss-120b(v1.0) - พารามิเตอร์ที่ใช้งาน: 5.1 B (การเลือก MoE แบบไดนามิก)
- การเผยแพร่ติดตามผล: วางแผนแก้ไขเพื่อปรับปรุง ตัวกรองความปลอดภัย และ การปรับแต่งโดเมนเฉพาะทาง
ข้อ จำกัด
แม้จะมีพลัง แต่โมเดล GPT‑OSS ก็ยังมีข้อจำกัดบางประการ:
- อินเทอร์เฟซแบบข้อความเท่านั้น:ต่างจาก GPT-4o หรือ Gemini, GPT‑OSS ไม่รองรับอินพุตมัลติโหมด (รูปภาพ เสียง วิดีโอ)
- ไม่มีชุดการฝึกอบรมที่โปร่งใส:OpenAI ยังไม่ได้เปิดเผยรายละเอียดเกี่ยวกับชุดข้อมูลเฉพาะที่ใช้ ซึ่งอาจก่อให้เกิดความกังวลเกี่ยวกับการทำซ้ำทางวิชาการหรือการตรวจสอบอคติ
- ความไม่สอดคล้องของประสิทธิภาพ:เกณฑ์มาตรฐานชุมชนบางอย่าง (เช่น Simple-Bench) รายงานผลลัพธ์ที่ไม่ดีในการทดสอบการใช้เหตุผลเฉพาะ (~22% ในงานบางอย่างสำหรับ 120b) ซึ่งแสดงให้เห็นว่า ประสิทธิภาพอาจแตกต่างกันอย่างมากในแต่ละโดเมน.
- ข้อ จำกัด ด้านฮาร์ดแวร์:โมเดล 120B ต้องใช้การประมวลผลที่สำคัญสำหรับการอนุมานในท้องถิ่น ทำให้นักพัฒนาทั่วไปที่ไม่สามารถเข้าถึง GPU ได้
- การแลกเปลี่ยนด้านความปลอดภัย:แม้ว่าจะได้รับการทดสอบภายใต้สถานการณ์การปรับแต่งเชิงปฏิปักษ์ แต่ลักษณะของน้ำหนักแบบเปิดหมายความว่าโมเดลเหล่านี้ยังสามารถถูกนำไปใช้ในทางที่ผิดได้ เช่น สำหรับสแปม ข้อมูลที่ผิดพลาด หรือการเจลเบรกโมเดล หากไม่ได้รับการควบคุมอย่างเหมาะสม
อย่างไรก็ตาม OpenAI รายงานว่าโมเดล gpt-oss อย่าเพิ่มความเสี่ยงด้านความปลอดภัยในระดับชายแดนในปัจจุบันโดยเฉพาะอย่างยิ่งในโดเมนความเสี่ยงทางชีวภาพหรือความปลอดภัยทางไซเบอร์
วิธีการโทร จีพีที-ออส-120บี API จาก CometAPI
gpt-oss-120b ราคา API ใน CometAPI ลด 20% จากราคาอย่างเป็นทางการ:
| อินพุตโทเค็น | $0.16 |
| โทเค็นเอาท์พุต | $0.80 |
ขั้นตอนที่ต้องดำเนินการ
- เข้าสู่ระบบเพื่อ โคเมตาปิดอทคอม. หากคุณยังไม่ได้เป็นผู้ใช้ของเรา กรุณาลงทะเบียนก่อน
- รับรหัส API ของข้อมูลรับรองการเข้าถึงของอินเทอร์เฟซ คลิก "เพิ่มโทเค็น" ที่โทเค็น API ในศูนย์ส่วนบุคคล รับรหัสโทเค็น: sk-xxxxx และส่ง
- รับ url ของเว็บไซต์นี้: https://api.cometapi.com/
ใช้วิธีการ
- เลือก “
gpt-oss-120b” จุดสิ้นสุดในการส่งคำขอ API และกำหนดเนื้อหาคำขอ วิธีการคำขอและเนื้อหาคำขอได้รับจากเอกสาร API ของเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบ Apifox เพื่อความสะดวกของคุณอีกด้วย - แทนที่ ด้วยคีย์ CometAPI จริงจากบัญชีของคุณ
- แทรกคำถามหรือคำขอของคุณลงในช่องเนื้อหา—นี่คือสิ่งที่โมเดลจะตอบสนอง
- ประมวลผลการตอบสนองของ API เพื่อรับคำตอบที่สร้างขึ้น
CometAPI มอบ REST API ที่เข้ากันได้อย่างสมบูรณ์ เพื่อการย้ายข้อมูลที่ราบรื่น รายละเอียดสำคัญ เอกสาร API:
- ปลายทาง: https://api.cometapi.com/v1/chat/completions
- พารามิเตอร์รุ่น: จีพีที-ออส-120บี
- รับรองความถูกต้อง:
Bearer YOUR_CometAPI_API_KEY - ชนิดของเนื้อหา:
application/json. - พารามิเตอร์หลัก:
prompt,max_tokens_to_sample,temperature,stop_sequences
แม้ว่าจะสามารถใช้ GPT‑OSS แบบออฟไลน์ได้ทั้งหมด แต่ยังรองรับ API แชทที่เข้ากันได้กับ OpenAI เมื่อโฮสต์บนบริการเช่น Hugging Face หรือ AWS Bedrock
นี่คือตัวอย่างการบูรณาการโดยใช้ Python:
from openai import OpenAI
import os
client = OpenAI(
base_url="https://api.cometapi.com/v1/chat/completions", # or AWS/Azure provider
api_key=cometapi_key
)
response = client.chat.completions.create(
model="gpt-oss-120b",
messages=[
{"role": "user", "content": "Explain how quantum tunneling works."}
]
)
print(response.choices.message.content)
อีกวิธีหนึ่งคือคุณสามารถรันโมเดลในเครื่องโดยใช้เครื่องมือเช่น LMดีพลอย, **การอนุมานการสร้างข้อความ (TGI)**หรือ วีแอลแอลเอ็ม.
ดูเพิ่มเติม จีพีที-โอเอสเอส-20บี


