API GPT-OSS-120B

CometAPI
AnnaAug 7, 2025
API GPT-OSS-120B

OpenAI's จีพีที-ออส-120บี ถือเป็นการเปิดตัวน้ำหนักเปิดครั้งแรกขององค์กรนับตั้งแต่ GPT-2 โดยนำเสนอให้กับนักพัฒนา โปร่งใส, ปรับแต่งได้และ ประสิทธิภาพสูง ความสามารถของ AI ภายใต้ ใบอนุญาต Apache 2.0. ออกแบบมาเพื่อความซับซ้อน เหตุผล และ ตัวแทน แอปพลิเคชัน โมเดลนี้ทำให้สามารถเข้าถึงเทคโนโลยีภาษาขั้นสูงขนาดใหญ่ได้อย่างทั่วถึง ช่วยให้สามารถปรับใช้ภายในสถานที่และปรับแต่งอย่างละเอียดได้

คุณสมบัติหลักและปรัชญาการออกแบบ

แบบจำลอง GPT-OSS ได้รับการออกแบบให้เป็นหลักสูตร LLM ทั่วไปที่เน้นเนื้อหาเป็นหลัก แบบจำลองเหล่านี้รองรับงานด้านความรู้ความเข้าใจระดับสูง ซึ่งรวมถึงการใช้เหตุผลเชิงคณิตศาสตร์ การวิเคราะห์เชิงโครงสร้าง และความเข้าใจภาษา แตกต่างจากแบบจำลองเชิงพาณิชย์แบบปิดอย่าง GPT-4 ตรงที่ GPT-OSS อนุญาตให้ดาวน์โหลดและใช้น้ำหนักแบบจำลองได้อย่างเต็มที่ ทำให้นักวิจัยและนักพัฒนาสามารถเข้าถึงเพื่อตรวจสอบ ปรับแต่ง และนำแบบจำลองไปใช้งานบนโครงสร้างพื้นฐานของตนเองได้อย่างที่ไม่เคยมีมาก่อน

ข้อมูลพื้นฐาน

  • พารามิเตอร์: รวม 117 พันล้านบาท 5.1 พันล้านบาท คล่องแคล่ว ผ่านทาง ส่วนผสมของผู้เชี่ยวชาญ (MoE)
  • ใบอนุญาตประกอบธุรกิจ:Apache 2.0 สำหรับการใช้งานเชิงพาณิชย์และทางวิชาการแบบไม่มีข้อจำกัด
  • หน้าต่างบริบท: จนถึง โทเค็น 128Kรองรับอินพุตแบบยาวและการใช้เหตุผลหลายเอกสาร
  • ห่วงโซ่แห่งความคิด: เต็ม โคที ผลลัพธ์สำหรับการตรวจสอบและการควบคุมแบบละเอียด
  • ผลลัพธ์ที่มีโครงสร้าง: รองรับดั้งเดิมสำหรับ JSON, XML และรูปแบบที่กำหนดเอง

รายละเอียดทางเทคนิค

GPT-OSS ใช้ประโยชน์จาก หม้อแปลงไฟฟ้า กระดูกสันหลังเสริมด้วย ส่วนผสมของผู้เชี่ยวชาญ (MoE) สถาปัตยกรรมเพื่อให้เกิดการเปิดใช้งานแบบเบาบางและลดต้นทุนการอนุมาน จีพีที-ออส-120บี แบบจำลองประกอบด้วย ผู้เชี่ยวชาญ 128 กระจายไปทั่ว 36 เลเยอร์, การเปิดใช้งาน ผู้เชี่ยวชาญ 4 คนต่อโทเค็น (พารามิเตอร์ที่ใช้งาน 5.1 B) ในขณะที่ จีพีที-ออส-20บี ใช้ประโยชน์ ผู้เชี่ยวชาญ 32 เกินกว่า 24 เลเยอร์, การเปิดใช้งาน ผู้เชี่ยวชาญ 4 คนต่อโทเค็น (พารามิเตอร์ที่ใช้งาน 3.6 B) มันใช้ สลับกันหนาแน่นและมีแถบเฉพาะที่ให้ความสนใจเบาบาง, ความสนใจแบบหลายคำถามที่จัดกลุ่ม (ขนาดกลุ่ม 8) และรองรับ 128 K หน้าต่างบริบทโทเค็น—ที่ไม่มีใครเทียบได้ในด้านข้อเสนอแบบ open-weight จนถึงปัจจุบัน ประสิทธิภาพของหน่วยความจำได้รับการปรับปรุงให้ดียิ่งขึ้นด้วย **การวัดปริมาณความแม่นยำแบบผสม 4 บิต** ซึ่งช่วยให้สามารถใช้งานบริบทขนาดใหญ่บนฮาร์ดแวร์ทั่วไปได้

โมเดล GPT-OSS ได้ผ่านการเปรียบเทียบประสิทธิภาพอย่างเข้มงวดกับชุดข้อมูลที่เป็นที่รู้จักดี เผยให้เห็นประสิทธิภาพที่สามารถแข่งขันได้ หรืออาจจะเหนือกว่า เมื่อเปรียบเทียบกับโมเดลกรรมสิทธิ์ที่มีขนาดใกล้เคียงกัน

การเปรียบเทียบประสิทธิภาพและการประเมินผลงาน

ในเกณฑ์มาตรฐาน จีพีที-ออส-120บี ตรงหรือเกินกว่าสิทธิ์เฉพาะของ OpenAI โอวันมินิ รูปแบบ:

  • MMLU (ความเข้าใจภาษามัลติทาสก์ขนาดใหญ่): ความแม่นยำ ~88%
  • Codeforces Elo (การใช้เหตุผลในการเขียนโค้ด): ~2205
  • AIME (การแข่งขันคณิตศาสตร์ด้วยเครื่องมือ): ~87.9%
  • ม้านั่งเพื่อสุขภาพ:มีประสิทธิภาพเหนือกว่า O4-mini อย่างมีนัยสำคัญในงาน QA ทางคลินิกและการวินิจฉัย
  • Tau-Bench (งานค้าปลีก + การให้เหตุผล): ~62% โดยเฉลี่ย

รุ่น รุ่น

  • ตัวแปรเริ่มต้น: gpt-oss-120b (v1.0)
  • พารามิเตอร์ที่ใช้งาน: 5.1 B (การเลือก MoE แบบไดนามิก)
  • การเผยแพร่ติดตามผล: วางแผนแก้ไขเพื่อปรับปรุง ตัวกรองความปลอดภัย และ การปรับแต่งโดเมนเฉพาะทาง

ข้อ จำกัด

แม้จะมีพลัง แต่โมเดล GPT‑OSS ก็ยังมีข้อจำกัดบางประการ:

  • อินเทอร์เฟซแบบข้อความเท่านั้น:ต่างจาก GPT-4o หรือ Gemini, GPT‑OSS ไม่รองรับอินพุตมัลติโหมด (รูปภาพ เสียง วิดีโอ)
  • ไม่มีชุดการฝึกอบรมที่โปร่งใส:OpenAI ยังไม่ได้เปิดเผยรายละเอียดเกี่ยวกับชุดข้อมูลเฉพาะที่ใช้ ซึ่งอาจก่อให้เกิดความกังวลเกี่ยวกับการทำซ้ำทางวิชาการหรือการตรวจสอบอคติ
  • ความไม่สอดคล้องของประสิทธิภาพ:เกณฑ์มาตรฐานชุมชนบางอย่าง (เช่น Simple-Bench) รายงานผลลัพธ์ที่ไม่ดีในการทดสอบการใช้เหตุผลเฉพาะ (~22% ในงานบางอย่างสำหรับ 120b) ซึ่งแสดงให้เห็นว่า ประสิทธิภาพอาจแตกต่างกันอย่างมากในแต่ละโดเมน.
  • ข้อ จำกัด ด้านฮาร์ดแวร์:โมเดล 120B ต้องใช้การประมวลผลที่สำคัญสำหรับการอนุมานในท้องถิ่น ทำให้นักพัฒนาทั่วไปที่ไม่สามารถเข้าถึง GPU ได้
  • การแลกเปลี่ยนด้านความปลอดภัย:แม้ว่าจะได้รับการทดสอบภายใต้สถานการณ์การปรับแต่งเชิงปฏิปักษ์ แต่ลักษณะของน้ำหนักแบบเปิดหมายความว่าโมเดลเหล่านี้ยังสามารถถูกนำไปใช้ในทางที่ผิดได้ เช่น สำหรับสแปม ข้อมูลที่ผิดพลาด หรือการเจลเบรกโมเดล หากไม่ได้รับการควบคุมอย่างเหมาะสม

อย่างไรก็ตาม OpenAI รายงานว่าโมเดล gpt-oss อย่าเพิ่มความเสี่ยงด้านความปลอดภัยในระดับชายแดนในปัจจุบันโดยเฉพาะอย่างยิ่งในโดเมนความเสี่ยงทางชีวภาพหรือความปลอดภัยทางไซเบอร์

วิธีการโทร จีพีที-ออส-120บี API จาก CometAPI

gpt-oss-120b ราคา API ใน CometAPI ลด 20% จากราคาอย่างเป็นทางการ:

อินพุตโทเค็น$0.16
โทเค็นเอาท์พุต$0.80

ขั้นตอนที่ต้องดำเนินการ

  • เข้าสู่ระบบเพื่อ โคเมตาปิดอทคอม. หากคุณยังไม่ได้เป็นผู้ใช้ของเรา กรุณาลงทะเบียนก่อน
  • รับรหัส API ของข้อมูลรับรองการเข้าถึงของอินเทอร์เฟซ คลิก "เพิ่มโทเค็น" ที่โทเค็น API ในศูนย์ส่วนบุคคล รับรหัสโทเค็น: sk-xxxxx และส่ง
  • รับ url ของเว็บไซต์นี้: https://api.cometapi.com/

ใช้วิธีการ

  1. เลือก “gpt-oss-120b” จุดสิ้นสุดในการส่งคำขอ API และกำหนดเนื้อหาคำขอ วิธีการคำขอและเนื้อหาคำขอได้รับจากเอกสาร API ของเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบ Apifox เพื่อความสะดวกของคุณอีกด้วย
  2. แทนที่ ด้วยคีย์ CometAPI จริงจากบัญชีของคุณ
  3. แทรกคำถามหรือคำขอของคุณลงในช่องเนื้อหา—นี่คือสิ่งที่โมเดลจะตอบสนอง
  4. ประมวลผลการตอบสนองของ API เพื่อรับคำตอบที่สร้างขึ้น

CometAPI มอบ REST API ที่เข้ากันได้อย่างสมบูรณ์ เพื่อการย้ายข้อมูลที่ราบรื่น รายละเอียดสำคัญ  เอกสาร API:

  • ปลายทาง: https://api.cometapi.com/v1/chat/completions
  • พารามิเตอร์รุ่น: จีพีที-ออส-120บี
  • รับรองความถูกต้อง: Bearer YOUR_CometAPI_API_KEY
  • ชนิดของเนื้อหา: application/json .
  • พารามิเตอร์หลักpromptmax_tokens_to_sampletemperaturestop_sequences

แม้ว่าจะสามารถใช้ GPT‑OSS แบบออฟไลน์ได้ทั้งหมด แต่ยังรองรับ API แชทที่เข้ากันได้กับ OpenAI เมื่อโฮสต์บนบริการเช่น Hugging Face หรือ AWS Bedrock

นี่คือตัวอย่างการบูรณาการโดยใช้ Python:

from openai import OpenAI
import os

client = OpenAI(
    base_url="https://api.cometapi.com/v1/chat/completions",  # or AWS/Azure provider

    api_key=cometapi_key
)

response = client.chat.completions.create(
    model="gpt-oss-120b",
    messages=[
        {"role": "user", "content": "Explain how quantum tunneling works."}
    ]
)

print(response.choices.message.content)

อีกวิธีหนึ่งคือคุณสามารถรันโมเดลในเครื่องโดยใช้เครื่องมือเช่น LMดีพลอย, **การอนุมานการสร้างข้อความ (TGI)**หรือ วีแอลแอลเอ็ม.

ดูเพิ่มเติม จีพีที-โอเอสเอส-20บี

SHARE THIS BLOG

อ่านเพิ่มเติม

500+ โมเดลใน API เดียว

ลดราคาสูงสุด 20%