gpt-oss-20b 하는 휴대형, 개방형 추론 모델 제공 o3‑미니 수준 성능, 에이전트 친화적 도구 사용, 그리고 전체 생각의 사슬 지원 허용 가능한 라이선스에 따라. 120B 대응 제품만큼 강력하지는 않지만, 온디바이스, 저지연성 및 개인 정보 보호에 민감한 배포개발자는 알려진 것을 평가해야 합니다. 구성상의 한계특히 지식이 필요한 작업의 경우 안전 예방 조치를 적절히 조정해야 합니다.
기본 정보
gpt-oss-20b 하는 21억 개의 매개변수 개방형 가중치 추론 모델 OpenAI에서 출시 아파치 2.0 라이센스활성화, 다운로드, 미세 조정 및 재배포를 위한 전체 권한 액세스. 이는 OpenAI의 첫 번째 오픈웨이트 모델 릴리스를 의미합니다. 2년 GPT‑2019 그리고 최적화되어 있습니다 에지 배포 및 로컬 추론 시스템에서 ≥ 16GB VRAM.
- 매개 변수 : 총 21억 개이며, 그 중 토큰당 3.6억 개가 활성화되어 있습니다.
- 건축물: 변압기 전문가 혼합(MoE)
- 컨텍스트 창: 장문 이해를 위한 최대 128개 토큰
- 특허: Apache 2.0은 제한 없는 학술적, 상업적 사용을 가능하게 합니다().
기능 및 기술 아키텍처
모델 사양
- 파라미터: 총 21B, 토큰당 3.6B 활성 전문가 혼합(MoE) 아키텍처를 통해 레이어당 32명의 전문가, 토큰당 4개 활성화 .
- 레이어: 24, 컨텍스트 창 최대 128K 토큰, 최대 출력 토큰 32K 일부 배포에서는 .
- 주의와 기억: 교대로 나타나는 고밀도 + 희소성 주의 패턴; 추론 효율성을 위한 그룹화된 다중 쿼리 주의(그룹 크기 = 8).
훈련 및 추론 제어
- STEM, 코딩, 일반 지식에 초점을 맞춘 영어 중심 텍스트에 대한 교육을 받았습니다.
- 지원 생각의 사슬(CoT) 추론 및 조정 가능 추론 수준 (낮음, 보통, 높음) 작업의 복잡성에 따라 다릅니다.
벤치마크 성능
- 일치 또는 OpenAI의 o3‑mini 모델 성능을 능가합니다. 벤치마크와 같은 MMLU, AIME, HLE, HealthBench, Codeforces, Tau‑Bench 크기가 더 작더라도요.
- 다음과 같은 독점 모델보다 성능이 뛰어납니다. 건강 및 수학적 추론 분야의 OpenAI o1, GPT‑4o 및 o4‑mini 높은 추론 수준의 과제.
- 더 큰 GPT‑OSS‑120B(117B)와 비교했을 때, 심층적인 상징적 추론이나 광범위한 지식(예: GPQA)에 의존하는 작업에서는 뒤처지지만, 코딩 및 건강 분야에서는 여전히 효율적입니다.
The 20 B 변형도 인상적입니다: 경쟁합니다 o3-미니 더 작은 크기에도 불구하고 동일한 제품군에서 MoE를 통해 추론 기능을 효율적으로 확장할 수 있음을 보여줍니다.
- MMLU(대규모 멀티태스킹 언어 이해): ~88% 정확도
- Codeforces Elo(코딩 추론): ~ 2205
- AIME(도구를 활용한 수학 경시대회): ~87.9%
- 헬스벤치: 임상 QA 및 진단 작업에서 o4-mini보다 훨씬 뛰어난 성능을 발휘합니다.
- 타우벤치(소매 + 추론 과제): 평균 62%
모델 버전 및 비교
| 모델 | 매개 변수 | 활성 매개변수 | 하드웨어 필요 | 벤치마크 성능 |
|---|---|---|---|---|
gpt-oss-20b | 21비 | 3.6비 | ≥ 16GB GPU 또는 장치 내 | 비교 가능 o3‑미니 |
| gpt‑oss‑120b | 117비 | 5.1비 | 80GB 이상 GPU | 일치하거나 초과합니다 o4‑미니 |
가벼운 대응 제품으로 설계되었습니다. gpt‑oss‑120BGPT‑OSS‑20B는 리소스가 제한된 환경에서도 강력한 작업 성능을 유지하면서 이식성을 제공합니다. OpenAI의 독점 모델과 달리, 공개적으로 접근 가능하고 조정이 가능하다는 점이 특징입니다.
제한 사항
- 낮은 지식 회상 GPQA와 같은 복잡한 작업은 대규모 모델에 비해 더 효과적입니다.
- 사용자 보고서 특히 코딩이나 일반 지식 프롬프트의 경우 실제 성과에 변동성이 있음을 나타냅니다. 일부는 이를 조기 구현이나 프롬프트의 오용에 기인합니다.
- 안전 및 오용 위험: OpenAI가 적대적인 미세 조정 gpt-oss 변형을 평가했지만, 그조차도 생물학적 위험이나 사이버 영역에서 높은 성능에 도달하지 못했습니다. 그래도 대규모 사용 사례를 배포하는 사용자는 추가적인 보호 장치가 필요할 수 있습니다.
고객 사례
OpenAI는 GPT‑OSS를 지원하도록 설계했습니다. 다양한 사용 사례소비자 앱부터 엔터프라이즈급 분석까지 다양한 기능을 제공합니다. 20B 버전은 로컬 실행에 최적화되어 있으며, 최소 사양의 기기에서도 실행 가능합니다. RAM의 16GB같은 M 시리즈 칩이 탑재된 고급 노트북 또는 MacBook. GPT‑OSS‑20B는 다음에 적합합니다.
- 로컬/오프라인 추론 Windows PC(Windows AI Foundry를 통해), macOS 또는 Snapdragon 기반 에지 장치에서.
- 에이전트 워크플로: 코드 실행, 도구 사용, 브라우저 기반 에이전트 또는 제한된 대역폭 설정에서의 자율적 도우미.
- 신속한 프로토타입 제작 및 미세 조정특히 클라우드 인프라가 없거나 개인정보 보호 제약이 있는 개발자에게 적합합니다.
다른 모델 비교
gpt-oss-20bvs. o3‑mini / o4‑mini: GPT‑OSS‑20B는 정확도와 공동 사고 추론 측면에서 o3‑mini와 경쟁합니다. o4‑mini보다 효율적이고 개방적이지만 성능이 떨어집니다. gpt‑oss‑120B 까다로운 추론 과제에 대해서.gpt-oss-20bLLaMA 4, GLM‑4.5, DeepSeek 대비: GPT‑OSS‑20B는 반개방형 모델과 달리 Apache 2.0에서 완전한 개방형 가중치 투명성을 제공합니다. 하지만 일부 사용자는 추론 품질 측면에서 GLM‑4.5‑AIR을 선호한다고 보고합니다.
전화하는 방법 gpt-oss-20b CometAPI의 API
gpt-oss-20b CometAPI의 API 가격 책정, 공식 가격 대비 20% 할인:
| 입력 토큰 | $0.08 |
| 출력 토큰 | $0.32 |
필수 단계
- 에 로그인 코메타피닷컴. 아직 당사 사용자가 아니신 경우 먼저 등록해 주시기 바랍니다.
- 인터페이스의 액세스 자격 증명 API 키를 받으세요. 개인 센터의 API 토큰에서 "토큰 추가"를 클릭하고 토큰 키(sk-xxxxx)를 받아 제출하세요.
- 이 사이트의 url을 받으세요: https://api.cometapi.com/
사용 방법
- "
gpt-oss-20bAPI 요청을 전송하고 요청 본문을 설정하는 엔드포인트입니다. 요청 메서드와 요청 본문은 웹사이트 API 문서에서 확인할 수 있습니다. 웹사이트에서는 사용자의 편의를 위해 Apifox 테스트도 제공합니다. - 바꾸다 귀하 계정의 실제 CometAPI 키를 사용합니다.
- 질문이나 요청을 콘텐츠 필드에 입력하세요. 모델이 이에 응답합니다.
- . API 응답을 처리하여 생성된 답변을 얻습니다.
CometAPI는 완벽한 호환성을 갖춘 REST API를 제공하여 원활한 마이그레이션을 지원합니다. 주요 세부 정보는 다음과 같습니다. API doc:
- 핵심 매개 변수:
prompt,max_tokens_to_sample,temperature,stop_sequences - 종점 : https://api.cometapi.com/v1/chat/completions
- 모델 매개 변수 : "
gpt-oss-20b" - 입증:
Bearer YOUR_CometAPI_API_KEY - 컨텐츠 타입:
application/json.
API 호출 예제
GPT‑OSS 모델은 개방형이지만 CometAPI 등의 API를 통해 액세스할 수 있습니다. gpt‑oss‑20BCometAPI에 대한 일반적인 호출은 다음과 같습니다.
POST https://api.cometapi.com/v1/chat/completions
{
"model": "gpt-oss-20b",
"messages": [{ "role": "system", "content": "Reasoning: high" },
{ "role": "user", "content": "Solve bilateral integral…" }],
"max_tokens": 2048,
"temperature": 0.0
}
이는 함수 호출, 구조화된 출력 스키마, 도구 통합 및 시스템 프롬프트를 통한 추론 제어를 지원합니다.
도 참조 GPT-OSS-120B


