OpenAI는 GPT-5에 대한 공식 매개변수 수를 게시하지 않았습니다. 약 1조 7천억~1조 8천억 개의 매개변수 (밀집 모델 스타일 추정치) 수십조 전문가 혼합(MoE) 스타일 아키텍처의 총 용량을 고려한다면 말입니다. 이러한 수치는 공식적으로 확인된 바가 없으며, 아키텍처(밀집 아키텍처 vs. MoE 아키텍처), 매개변수 공유, 희소성, 양자화의 차이로 인해 단일 헤드라인 수치는 오해의 소지가 있습니다.
OpenAI는 GPT-5의 크기와 아키텍처에 대해 어떻게 말합니까?
OpenAI의 GPT-5 관련 공개 자료는 매개변수 개수보다는 기능, API, 그리고 새로운 제어 기능을 강조합니다. OpenAI의 제품 및 개발자 페이지에서는 향상된 코딩, 새로운 기능 등 GPT-5의 기능을 소개합니다. verbosity 매개변수 및 새로운 추론 제어 - 하지만 지원 "매개변수 = X" 수치를 공개합니다. 예를 들어, OpenAI의 공식 GPT-5 페이지와 개발자 문서에는 기능 및 구성 노브에 대한 설명이 있지만 매개변수 개수에 대한 세부 사항은 생략되어 있습니다.
그 침묵이 중요한 이유
매개변수 개수는 모델 규모를 나타내는 단순한 약어였습니다. 하지만 오늘날에는 매개변수 개수만으로는 정보의 의미가 줄었습니다. 모델 설계 선택(전문가 혼합, 매개변수 공유, 양자화), 학습 계산, 데이터 품질, 알고리즘 변경은 공개된 매개변수 총합에 비례하여 변화하지 않고도 큰 성능 차이를 만들어낼 수 있습니다. OpenAI가 기능과 안전성 향상에 집중하는 것은 이러한 변화를 반영합니다. OpenAI는 단순한 크기보다 성능, 안전성 테스트, API 제어를 더욱 강조합니다.
어떤 독립적인 추정치가 존재하며, 그 추정치들은 얼마나 큰 차이를 보입니까?
OpenAI가 해당 수치를 공개하지 않았기 때문에, 저희 팀은 추정치와 가설을 도출한 여러 시나리오를 기반으로 추정치를 도출했습니다. 이러한 추정치는 몇 가지 범주로 나뉩니다.
1조 7천억1조 8천억 개의 매개변수(밀도 스타일 추정치). 여러 분석에서 벤치마크 성능, 가격 책정, 그리고 과거 확장성을 비교하여 GPT-5의 매개변수 규모가 조 단위 초반대에 속한다고 추정합니다. 이는 GPT-4에 대한 일부 추정치와 유사한 수준입니다. 이러한 추정치는 신중한 접근 방식으로, GPT-5를 거대한 MoE 시스템이라기보다는 확장된 규모의 고밀도 모델로 간주합니다.- 수십조 달러(환경부 기준 총액) 다른 보고서에서는 GPT-5(또는 일부 GPT-5 변형)가 전문가 혼합 접근 방식을 사용한다고 제안합니다. 합계 모든 전문가의 매개변수 수는 수십조에 달할 수 있습니다. 예를 들어, 업계 논평에서는 52.5조 개의 매개변수를 가진 MoE 구성이 유포되었다고 주장합니다. MoE 시스템은 토큰당 일부 전문가만 활성화하므로 "총 매개변수"와 "포워드 패스당 활성 매개변수"는 매우 다른 지표입니다.
- 단일 숫자를 피하는 보수적인 견해. 일부 기술 문서와 집계자는 매개변수 수만으로는 제대로 된 대리 지표가 될 수 없다고 강조하며 확실한 수치를 제시하기를 거부하고, 대신 성능, 지연 시간, 가격 및 아키텍처적 상충 관계를 분석하는 것을 선호합니다.
이러한 차이점은 중요합니다. "1.8T 고밀도"와 "50T MoE 총계"라는 주장은 직접적으로 비교할 수 없습니다. 전자는 모든 토큰에 적용되는 고밀도 행렬을 의미하고, 후자는 효과적인 컴퓨팅 및 메모리 사용량을 매우 다르게 만드는 희소 활성화 패턴을 의미합니다.
어떻게 다양한 출처에서 이렇게 다른 숫자가 나올 수 있을까?
추정치가 다르게 나타나는 데에는 몇 가지 기술적, 맥락적 이유가 있습니다.
(a) 고밀도 대 희소(전문가 혼합) 아키텍처
밀집 변환기는 모든 토큰에 동일한 가중치 행렬을 적용합니다. 밀집 모델의 매개변수 개수는 저장된 가중치의 개수입니다. MoE 모델은 많은 전문가 하위 모델을 저장하지만 토큰당 작은 하위 집합만 활성화합니다. 때때로 다음과 같은 보고가 있습니다. 합계 전문가 매개변수의 수(엄청나게 많을 수 있음)가 다른 사람들에게 보고되는 반면 효과적인 토큰당 활성화된 매개변수 수가 훨씬 적습니다. 이러한 불일치로 인해 헤드라인 수치가 크게 달라집니다.
(b) 매개변수 공유 및 효율적 표현
최신 프로덕션 모델은 매개변수 공유 기법, 저순위 어댑터 또는 공격적 양자화를 사용하는 경우가 많습니다. 이러한 기법은 메모리 사용량을 줄이고 실제 용량에 대한 "매개변수" 계산 방식을 변경합니다. 동일한 원시 매개변수 개수를 가진 두 모델이 공유 가중치나 압축을 사용할 경우 매우 다르게 동작할 수 있습니다.
(c) 대중을 대상으로 하는 경제 및 제품 포장
회사는 다양한 모델을 공개할 수 있습니다. 변종 (예: GPT-5, GPT-5-mini, GPT-5-instant) 내부 크기와 비용 프로필이 서로 다릅니다. 이러한 변형의 가격, 지연 시간 및 처리량은 분석가에게 간접적인 단서를 제공하지만, 이러한 단서를 얻으려면 오류를 유발하는 배칭, 하드웨어 및 소프트웨어 스택에 대한 가정이 필요합니다.
(d) 고의적인 비공개 및 경쟁적 이유
OpenAI를 비롯한 여러 기업들은 특정 아키텍처 세부 사항을 독점적인 것으로 취급하는 경향이 커지고 있습니다. 이로 인해 기본 원칙 계산에서 얻을 수 있는 정보가 줄어들고, 커뮤니티는 벤치마크, 지연 시간, 보고된 인프라 파트너 등 노이즈가 많은 간접 추론에 의존하게 됩니다.
공개된 추정치 중 가장 신뢰할 만한 것은 무엇인가?
간단한 평가
권위 있는 단일 공개 소스는 없습니다. 신뢰성은 방법에 따라 달라집니다.
- 벤치마크, 가격 및 추론 지연을 삼각 측량하는 분석 (예: 주의 깊은 업계 기술 블로그)는 유용하지만 반드시 대략적일 수밖에 없습니다.
- 엄청난 총 매개변수 수에 대한 주장 그럴듯하다 if 아키텍처는 MoE입니다. 하지만 이러한 총계는 밀도 모델과 직접 비교할 수 없으며, 1차 증거보다는 외삽법에 의해 도출되는 경우가 많습니다. 따라서 다른 지표로 취급해야 합니다.
- OpenAI의 침묵 숫자 자체가 중요한 데이터 포인트입니다. 회사는 원시 개수보다 행동, 안전 및 API 제어를 강조하고 있습니다.
숫자를 평가하는 방법
엔지니어링이나 조달에 대한 작업 가정이 필요한 경우: 모델 행동 (지연 시간, 처리량, 토큰당 비용, 작업 정확성)은 검증되지 않은 매개변수 합계보다 더 중요합니다. 모델링 비용에 수치적 추정치를 사용해야 하는 경우, 보수적으로 다음을 가정하십시오. 낮은 조 MoE와 활성화 패턴에 대한 직접적인 증거가 없는 한 주문 규모를 지정하십시오. MoE가 있는 경우 해당 지표가 있는지 물어보십시오. 합계 vs 활동적인 용량 계획을 위해 숫자를 사용하기 전에 매개변수를 지정하세요.
매개변수 수가 여전히 성능을 예측할 수 있나요?
짧은 답변 : 부분적으로하지만 이전보다 신뢰성이 떨어졌습니다.
역사적 관점
스케일링 법칙은 특정 벤치마크에서 모델 크기, 컴퓨팅 및 성능 간에 강력한 상관관계를 보였습니다. 매개변수(및 매칭된 컴퓨팅/데이터)를 증가시키면 예측 가능한 방식으로 성능이 향상되었습니다. 그러나 이러한 법칙은 유사한 아키텍처와 학습 방식을 가정합니다.
현대의 단서들
오늘날 아키텍처 혁신(전문가 혼합, 더 나은 최적화, 사고의 사슬 학습, 명령어 튜닝), 학습 데이터 큐레이션, 그리고 목표 미세 조정(RLHF, 도구 사용 통합)은 단순한 확장보다 매개변수당 성능을 훨씬 더 향상시킬 수 있습니다. OpenAI의 GPT-5 발표는 추론 제어와 다음과 같은 개발자 매개변수를 강조합니다. verbosity 및 reasoning_effort — 누구도 매개변수 개수를 알 필요 없이 사용자 경험을 바꾸는 디자인 선택입니다.
따라서 매개변수 개수는 다음과 같습니다. 한 여러 예측 변수 중 하나일 뿐, 모델의 유용성을 특징짓는 데 필요하지도 충분하지도 않습니다.
최근 뉴스 기사에서는 GPT-5의 규모에 대해 어떻게 말하고 있나요?
최근 보도는 규모보다는 기능, 안전성, 그리고 제품 선택에 초점을 맞추고 있습니다. 언론 매체들은 GPT-5가 출력 결과의 정치적 편향을 줄인다는 OpenAI의 주장, 새로운 연령 제한 및 콘텐츠 정책 변경이 예정되어 있다는 주장, 그리고 OpenAI가 개발자를 위해 모델을 더욱 유용하고 제어하기 쉽게 만들기 위해 지속적으로 개선하고 있다는 주장을 보도했습니다. 이러한 제품 및 정책 신호는 공개되지 않은 매개변수 수치보다 실무적으로 더 중요합니다.
제품의 실질적인 변화
OpenAI의 개발자 자료는 개발자가 속도, 디테일, 그리고 사고의 깊이를 균형 있게 조절할 수 있도록 설계된 새로운 API 매개변수(상세도, 추론 노력, 맞춤형 도구)를 발표합니다. 이러한 매개변수는 개발자가 자신의 제품에 적합한 GPT-5 변형이나 설정을 결정해야 하는 경우 구체적이고 즉시 적용 가능합니다.
연구자와 엔지니어가 용량이나 비용을 계획해야 하는 경우 어떻게 해야 합니까?
단일 "매개변수" 번호에 의존하지 마십시오.
경험적 벤치마킹 워크로드에 따라 달라집니다. 대표 프롬프트에 대한 지연 시간, 처리량, 토큰 비용 및 정확도를 측정하세요. 이러한 지표는 비용을 지불하는 대상이자 사용자가 경험하게 될 지표입니다. 매개변수 수가 유사한 모델이라도 실제 비용은 매우 다를 수 있습니다.
매개변수 기반 가정을 선택해야 하는 경우
모델링 여부를 문서화하세요 합계 매개변수(저장 및 일부 라이선스 논의에 유용함) 대비 활동적인 토큰당 매개변수(런타임 메모리/컴퓨팅에 유용). 공개 추정치를 사용하는 경우 출처와 가정(MoE 대 밀도, 양자화, 가중치 공유 여부)을 명시하십시오.
공식 문서와 OpenAI의 명시된 변경 사항을 모니터링합니다.
OpenAI는 비용에 직접적인 영향을 미치는 API 기능과 가격을 공개합니다. 이러한 기능은 추측적인 매개변수 개수보다 실행 가능성이 높습니다. 개발자 페이지와 릴리스 노트에서 변형 이름, 가격 및 지연 시간 계층을 확인하세요.
그렇다면 GPT-5는 결국 몇 개의 매개변수를 갖게 될까요?
있다 단일 권위 있는 공개 답변 없음 OpenAI가 매개변수 개수를 공개하지 않았고 제3자 추정치도 서로 다르기 때문입니다. 가장 솔직하고 좋은 요약은 다음과 같습니다.
- 오픈AI: 공개 매개변수 계산 없음; 기능, 안전성 및 개발자 제어에 중점을 둡니다.
- 독립적인 신중한 추정: 많은 분석에서 다음과 같은 결과가 나왔습니다. 낮은 조 GPT-5를 스케일링된 크기의 고밀도 변압기로 모델링하면 10차 크기(≈1.7–1.8T)가 됩니다. 이는 사실이 아닌 추정치로 간주하십시오.
- MoE/총 매개변수 청구: 가상 MoE 구성에서 총 전문가 용량을 언급하는 주장(예: ~52.5T)이 유포되고 있습니다. 이는 고밀도 계수와 직접 비교할 수 없으며 활성화 동작에 따라 달라집니다.
최종 테이크아웃
- 매개변수 개수는 유익하지만 불완전합니다. LLM은 규모에 대한 직관을 구축하는 데 도움이 되지만 최신 LLM 기능은 아키텍처, 교육 데이터, 컴퓨팅 및 미세 조정에 따라 달라집니다.
- OpenAI는 GPT-5의 매개변수 총계를 공개하지 않습니다. 따라서 분석가들은 간접적인 신호와 가정에 의존하며, 다양한 추정치를 예상합니다.
- MoE 총계 대 고밀도 계수: "수십조"라는 제목이 보이면 그것이 다음을 의미하는지 확인하십시오. 전체 MoE 전문가 or 토큰당 활성 매개변수 —그것들은 같지 않아요.
- 벤치마크는 제품 결정에 대한 추측보다 더 나은 결과를 가져왔습니다. 관심 있는 작업(정확도, 지연 시간, 비용)에 대해 모델을 측정하세요. OpenAI가 제공하는 API 설정(상세도, 추론 노력)은 검증되지 않은 총 매개변수 수보다 더 중요할 가능성이 높습니다.
GPT-5 API를 더 저렴하게 호출하는 방법은?
CometAPI는 OpenAI의 GPT 시리즈, Google의 Gemini, Anthropic의 Claude, Midjourney, Suno 등 주요 공급업체의 500개 이상의 AI 모델을 단일 개발자 친화적인 인터페이스로 통합하는 통합 API 플랫폼입니다. CometAPI는 일관된 인증, 요청 형식 지정 및 응답 처리를 제공하여 애플리케이션에 AI 기능을 통합하는 과정을 획기적으로 간소화합니다. 챗봇, 이미지 생성기, 음악 작곡가 또는 데이터 기반 분석 파이프라인 등 어떤 제품을 구축하든 CometAPI를 사용하면 AI 생태계 전반의 최신 혁신 기술을 활용하면서 반복 작업을 더 빠르게 수행하고 비용을 관리하며 공급업체에 구애받지 않을 수 있습니다.
개발자는 액세스할 수 있습니다 GPT-5 및 GPT-5 프로 API CometAPI를 통해 최신 모델 버전 공식 웹사이트에서 항상 업데이트됩니다. 시작하려면 모델의 기능을 살펴보세요. 운동장 그리고 상담하십시오 API 가이드 자세한 내용은 CometAPI를 참조하세요. 접속하기 전에 CometAPI에 로그인하고 API 키를 발급받았는지 확인하세요. 코멧API 공식 가격보다 훨씬 낮은 가격을 제공하여 통합을 돕습니다.
출발 준비 되셨나요?→ 지금 CometAPI에 가입하세요 !



