GPT-OSS-20B API

CometAPI
AnnaAug 7, 2025
GPT-OSS-20B API

gpt-oss-20b 하는 휴대형, 개방형 추론 모델 제공 o3‑미니 수준 성능, 에이전트 친화적 도구 사용, 그리고 전체 생각의 사슬 지원 허용 가능한 라이선스에 따라. 120B 대응 제품만큼 강력하지는 않지만, 온디바이스, 저지연성 및 개인 정보 보호에 민감한 배포개발자는 알려진 것을 평가해야 합니다. 구성상의 한계특히 지식이 필요한 작업의 경우 안전 예방 조치를 적절히 조정해야 합니다.

기본 정보

gpt-oss-20b 하는 21억 개의 매개변수 개방형 가중치 추론 모델 OpenAI에서 출시 아파치 2.0 라이센스활성화, 다운로드, 미세 조정 및 재배포를 위한 전체 권한 액세스. 이는 OpenAI의 첫 번째 오픈웨이트 모델 릴리스를 의미합니다. 2년 GPT‑2019 그리고 최적화되어 있습니다 에지 배포 및 로컬 추론 시스템에서 ≥ 16GB VRAM.

  • 매개 변수 : 총 21억 개이며, 그 중 토큰당 3.6억 개가 활성화되어 있습니다.
  • 건축물: 변압기 전문가 혼합(MoE)
  • 컨텍스트 창: 장문 이해를 위한 최대 128개 토큰
  • 특허: Apache 2.0은 제한 없는 학술적, 상업적 사용을 가능하게 합니다().

기능 및 기술 아키텍처

모델 사양

  • 파라미터: 총 21B, 토큰당 3.6B 활성 전문가 혼합(MoE) 아키텍처를 통해 레이어당 32명의 전문가, 토큰당 4개 활성화 .
  • 레이어: 24, 컨텍스트 창 최대 128K 토큰, 최대 출력 토큰 32K 일부 배포에서는 .
  • 주의와 기억: 교대로 나타나는 고밀도 + 희소성 주의 패턴; 추론 효율성을 위한 그룹화된 다중 쿼리 주의(그룹 크기 = 8).

훈련 및 추론 제어

  • STEM, 코딩, 일반 지식에 초점을 맞춘 영어 중심 텍스트에 대한 교육을 받았습니다.
  • 지원 생각의 사슬(CoT) 추론 및 조정 가능 추론 수준 (낮음, 보통, 높음) 작업의 복잡성에 따라 다릅니다.

벤치마크 성능

  • 일치 또는 OpenAI의 o3‑mini 모델 성능을 능가합니다. 벤치마크와 같은 MMLU, AIME, HLE, HealthBench, Codeforces, Tau‑Bench 크기가 더 작더라도요.
  • 다음과 같은 독점 모델보다 성능이 뛰어납니다. 건강 및 수학적 추론 분야의 OpenAI o1, GPT‑4o 및 o4‑mini 높은 추론 수준의 과제.
  • 더 큰 GPT‑OSS‑120B(117B)와 비교했을 때, 심층적인 상징적 추론이나 광범위한 지식(예: GPQA)에 의존하는 작업에서는 뒤처지지만, 코딩 및 건강 분야에서는 여전히 효율적입니다.

The 20 B 변형도 인상적입니다: 경쟁합니다 o3-미니 더 작은 크기에도 불구하고 동일한 제품군에서 MoE를 통해 추론 기능을 효율적으로 확장할 수 있음을 보여줍니다.

  • MMLU(대규모 멀티태스킹 언어 이해): ~88% 정확도
  • Codeforces Elo(코딩 추론): ~ 2205
  • AIME(도구를 활용한 수학 경시대회): ~87.9%
  • 헬스벤치: 임상 QA 및 진단 작업에서 o4-mini보다 훨씬 뛰어난 성능을 발휘합니다.
  • 타우벤치(소매 + 추론 과제): 평균 62%

모델 버전 및 비교

모델매개 변수활성 매개변수하드웨어 필요벤치마크 성능
gpt-oss-20b21비3.6비≥ 16GB GPU 또는 장치 내비교 가능 o3‑미니
gpt‑oss‑120b117비5.1비80GB 이상 GPU일치하거나 초과합니다 o4‑미니

가벼운 대응 제품으로 설계되었습니다. gpt‑oss‑120BGPT‑OSS‑20B는 리소스가 제한된 환경에서도 강력한 작업 성능을 유지하면서 이식성을 제공합니다. OpenAI의 독점 모델과 달리, 공개적으로 접근 가능하고 조정이 가능하다는 점이 특징입니다.


제한 사항

  • 낮은 지식 회상 GPQA와 같은 복잡한 작업은 대규모 모델에 비해 더 효과적입니다.
  • 사용자 보고서 특히 코딩이나 일반 지식 프롬프트의 경우 실제 성과에 변동성이 있음을 나타냅니다. 일부는 이를 조기 구현이나 프롬프트의 오용에 기인합니다.
  • 안전 및 오용 위험: OpenAI가 적대적인 미세 조정 gpt-oss 변형을 평가했지만, 그조차도 생물학적 위험이나 사이버 영역에서 높은 성능에 도달하지 못했습니다. 그래도 대규모 사용 사례를 배포하는 사용자는 추가적인 보호 장치가 필요할 수 있습니다.

고객 사례

OpenAI는 GPT‑OSS를 지원하도록 설계했습니다. 다양한 사용 사례소비자 앱부터 엔터프라이즈급 분석까지 다양한 기능을 제공합니다. 20B 버전은 로컬 실행에 최적화되어 있으며, 최소 사양의 기기에서도 실행 가능합니다. RAM의 16GB같은 M 시리즈 칩이 탑재된 고급 노트북 또는 MacBook. GPT‑OSS‑20B는 다음에 적합합니다.

  • 로컬/오프라인 추론 Windows PC(Windows AI Foundry를 통해), macOS 또는 Snapdragon 기반 에지 장치에서.
  • 에이전트 워크플로: 코드 실행, 도구 사용, 브라우저 기반 에이전트 또는 제한된 대역폭 설정에서의 자율적 도우미.
  • 신속한 프로토타입 제작 및 미세 조정특히 클라우드 인프라가 없거나 개인정보 보호 제약이 있는 개발자에게 적합합니다.

다른 모델 비교

  • gpt-oss-20bvs. o3‑mini / o4‑mini: GPT‑OSS‑20B는 정확도와 공동 사고 추론 측면에서 o3‑mini와 경쟁합니다. o4‑mini보다 효율적이고 개방적이지만 성능이 떨어집니다. gpt‑oss‑120B 까다로운 추론 과제에 대해서.
  • gpt-oss-20b LLaMA 4, GLM‑4.5, DeepSeek 대비: GPT‑OSS‑20B는 반개방형 모델과 달리 Apache 2.0에서 완전한 개방형 가중치 투명성을 제공합니다. 하지만 일부 사용자는 추론 품질 측면에서 GLM‑4.5‑AIR을 선호한다고 보고합니다.

전화하는 방법 gpt-oss-20b CometAPI의 API

gpt-oss-20b CometAPI의 API 가격 책정, 공식 가격 대비 20% 할인:

입력 토큰$0.08
출력 토큰$0.32

필수 단계

  • 에 로그인 코메타피닷컴. 아직 당사 사용자가 아니신 경우 먼저 등록해 주시기 바랍니다.
  • 인터페이스의 액세스 자격 증명 API 키를 받으세요. 개인 센터의 API 토큰에서 "토큰 추가"를 클릭하고 토큰 키(sk-xxxxx)를 받아 제출하세요.
  • 이 사이트의 url을 받으세요: https://api.cometapi.com/

사용 방법

  1. "gpt-oss-20bAPI 요청을 전송하고 요청 본문을 설정하는 엔드포인트입니다. 요청 메서드와 요청 본문은 웹사이트 API 문서에서 확인할 수 있습니다. 웹사이트에서는 사용자의 편의를 위해 Apifox 테스트도 제공합니다.
  2. 바꾸다 귀하 계정의 실제 CometAPI 키를 사용합니다.
  3. 질문이나 요청을 콘텐츠 필드에 입력하세요. 모델이 이에 응답합니다.
  4. . API 응답을 처리하여 생성된 답변을 얻습니다.

CometAPI는 완벽한 호환성을 갖춘 REST API를 제공하여 원활한 마이그레이션을 지원합니다. 주요 세부 정보는 다음과 같습니다.  API doc:

  • 핵심 매개 변수promptmax_tokens_to_sampletemperaturestop_sequences
  • 종점 : https://api.cometapi.com/v1/chat/completions
  • 모델 매개 변수 : "gpt-oss-20b"
  • 입증: Bearer YOUR_CometAPI_API_KEY
  • 컨텐츠 타입: application/json .

API 호출 예제

GPT‑OSS 모델은 개방형이지만 CometAPI 등의 API를 통해 액세스할 수 있습니다. gpt‑oss‑20BCometAPI에 대한 일반적인 호출은 다음과 같습니다.

POST  https://api.cometapi.com/v1/chat/completions
{
  "model": "gpt-oss-20b",
  "messages": [{ "role": "system", "content": "Reasoning: high" },
               { "role": "user", "content": "Solve bilateral integral…" }],
  "max_tokens": 2048,
  "temperature": 0.0
}

이는 함수 호출, 구조화된 출력 스키마, 도구 통합 및 시스템 프롬프트를 통한 추론 제어를 지원합니다.

도 참조 GPT-OSS-120B

SHARE THIS BLOG

더 보기

하나의 API로 500개 이상의 모델

최대 20% 할인