딥시크 v3.2 API

CometAPI
AnnaDec 3, 2025
딥시크 v3.2 API

DeepSeek의 V3 시리즈 중 DeepSeek V3.2: 에이전트 도구 사용, 장기 컨텍스트 추론 및 비용 효율적인 배포에 최적화된 "추론 우선" 대규모 언어 모델 제품군입니다.

DeepSeek v3.2는 무엇인가요?

딥시크 v3.2 DeepSeek의 최신 프로덕션 릴리스입니다. V3 패밀리: 추론을 우선시하는 대규모 개방형 언어 모델 패밀리로 설계되었습니다. 장기 맥락 이해, 강력한 에이전트/도구 사용, 고급 추론, 코딩 및 수학. 이 릴리스는 여러 버전(프로덕션 V3.2 및 고성능 V3.2-Speciale)을 포함합니다. 이 프로젝트는 새로운 희소 어텐션 메커니즘인 DeepSeek 스파스 어텐션(DSA) 그리고 에이전트/"사고" 워크플로("도구 사용에 대한 사고").

주요 특징(높은 수준)

  • DeepSeek 스파스 어텐션(DSA): 장거리 추론을 보존하면서 장기 맥락 시나리오에서 컴퓨팅을 극적으로 줄이기 위한 희소 주의 메커니즘입니다. (핵심 연구 주장; 사용됨 V3.2-Exp.)
  • 에이전트적 사고 + 도구 사용 통합: V3.2는 도구 사용에 "사고"를 내장하는 데 중점을 둡니다. 즉, 모델을 추론-사고 모드와 도구를 호출할 때 비사고(일반) 모드에서 작동할 수 있어 다단계 작업과 도구 오케스트레이션에서 의사 결정을 개선합니다.
  • 대규모 에이전트 데이터 합성 파이프라인: DeepSeek은 대화형 작업의 견고성을 개선하기 위해 수천 개의 환경과 수만 개의 복잡한 명령어를 포함하는 교육 코퍼스와 에이전트 합성 파이프라인을 보고합니다.
  • DeepSeek 스파스 어텐션(DSA): DSA는 V3.2 라인(V3.2-Exp에서 처음 도입)에 도입된 세분화된 희소 어텐션(sparse attention) 방식으로, 어텐션 복잡도를 줄여줍니다(단순 O(L²)에서 k ≪ L인 O(L·k) 스타일로). 쿼리 토큰당 더 적은 키/값 토큰 세트를 선택합니다. 결과적으로 매우 긴 컨텍스트(128K)에서 메모리/연산 비용이 상당히 절감되어 긴 컨텍스트 추론 비용이 크게 절감됩니다.
  • 전문가 혼합(MoE) 백본 및 다중 헤드 잠재 주의(MLA): V3 제품군은 MoE를 사용하여 용량을 효율적으로 늘리고(제한된 토큰당 활성화로 큰 명목 매개변수 수) MLA 방식을 사용하여 품질을 유지하고 컴퓨팅을 제어합니다.

기술 사양(간략한 표)

  • 명목 매개변수 범위: ~671B – 685B (변종에 따라 다름).
  • 컨텍스트 창(문서화된 참조): 128,000 토큰 (128K) vLLM/참조 구성에서.
  • 주의: DeepSeek Sparse Attention(DSA) + MLA; 긴 맥락에 대한 주의 복잡도 감소.
  • 수치 및 학습 정밀도: BF16 / F32 및 압축 양자화 포맷(F8_E4M3 등)을 배포할 수 있습니다.
  • 건축 계열: 토큰별 활성화 경제를 갖춘 MoE(전문가 혼합) 백본.
  • 입력/출력: 표준 토큰화된 텍스트 입력(채팅/메시지 형식 지원), 도구 호출(도구 사용 API 기본 요소)과 API를 통한 대화형 채팅 스타일 호출 및 프로그래밍 방식 완성을 모두 지원합니다.
  • 제공되는 변형: v3.2, v3.2-Exp (실험적, DSA 데뷔), v3.2-Speciale (추론 우선, API 전용 단기).

벤치마크 성능

고성능 컴퓨팅 V3.2-Speciale 여러 추론/수학/코딩 벤치마크에서 최신 고급 모델과 동등하거나 능가하며, 엄선된 엘리트 수학 문제 세트에서 최고 수준의 점수를 달성했습니다. 사전 인쇄본에서는 엄선된 추론 벤치마크에서 GPT-5/Kimi K2와 같은 모델과의 동등성, 그리고 이전 DeepSeek R1/V3 기준선 대비 구체적인 개선 사항을 강조합니다.

  • 에임: 70.0에서 개선됨 87.5 (Δ +17.5).
  • GPQA: 71.5 년 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 년 → 73.3 (Δ +9.8).
  • 지원자: 57.0 년 → 71.6 (Δ +14.6).

다른 모델과의 비교(상위 수준)

  • GPT-5 / Gemini 3 Pro 대비(공개 주장): DeepSeek 저자와 몇몇 언론 매체는 Speciale 변형의 추론 및 코딩 작업에서 동등성 또는 우수성을 주장하는 한편, 비용 효율성과 오픈 라이선싱을 차별화 요소로 강조합니다.
  • 개방형 모델(Olmo, Nemotron, Moonshot 등) 대비: DeepSeek은 장기 맥락 효율성을 위한 주요 차별화 요소로 에이전트 학습과 DSA를 강조합니다.

대표적인 사용 사례

  • 에이전트 시스템/오케스트레이션: 모델 수준의 "사고"와 명시적 도구 호출 기본 요소의 이점을 활용하는 다중 도구 에이전트(API, 웹 스크래퍼, 코드 실행 커넥터).
  • 장문서 추론/분석: 법률 문서, 대규모 연구 자료, 회의록 등 긴 컨텍스트 변형(128k 토큰)을 사용하면 매우 큰 컨텍스트를 단일 통화로 보관할 수 있습니다.
  • 복잡한 수학 및 코딩 지원: V3.2-Speciale 공급업체 벤치마크에 따르면 고급 수학적 추론과 광범위한 코드 디버깅 작업을 위해 홍보됩니다.
  • 비용에 민감한 프로덕션 배포: DSA+ 가격 변경의 목적은 고맥락 워크로드에 대한 추론 비용을 낮추는 것입니다.

사용 시작 방법딥시크 v3.2 API

딥시크 v3.2 CometAPI의 API 가격 책정, 공식 가격 대비 20% 할인:

입력 토큰$0.22
출력 토큰$0.35

필수 단계

  • 에 로그인 코메타피닷컴. 아직 당사 사용자가 아니신 경우 먼저 등록해 주시기 바랍니다.
  • 인터페이스의 액세스 자격 증명 API 키를 받으세요. 개인 센터의 API 토큰에서 "토큰 추가"를 클릭하고 토큰 키(sk-xxxxx)를 받아 제출하세요.
  • 이 사이트의 url을 받으세요: https://api.cometapi.com/

사용 방법

  1. "deepseek-v3.2API 요청을 전송하고 요청 본문을 설정하는 엔드포인트입니다. 요청 메서드와 요청 본문은 웹사이트 API 문서에서 확인할 수 있습니다. 웹사이트에서는 사용자의 편의를 위해 Apifox 테스트도 제공합니다.
  2. 바꾸다 귀하 계정의 실제 CometAPI 키를 사용합니다.
  3. 클라임웍스와 함께 하늘과 닿는 여정을 시작하세요 잡담 형식: 질문이나 요청을 콘텐츠 필드에 입력하세요. 모델이 이에 응답합니다.
  4. .API 응답을 처리하여 생성된 답변을 얻습니다.
더 보기

하나의 API로 500개 이상의 모델

최대 20% 할인