DeepSeek-V3.2

DeepSeek
deepseek-v3.2
입력:$0.22/M
출력:$0.35/M
맥락:128K
최대 출력:4K
DeepSeek v3.2는 DeepSeek V3 제품군의 최신 프로덕션 릴리스입니다: 긴 컨텍스트 이해, 견고한 에이전트/도구 활용, 고급 추론, 코딩과 수학을 위해 설계된 대규모 ‘추론 우선’ 오픈 웨이트 언어 모델 제품군.

DeepSeek v3.2란 무엇인가?

DeepSeek v3.2는 DeepSeek V3 계열의 최신 프로덕션 릴리스로, 긴 컨텍스트 이해, 견고한 에이전트/툴 사용, 고급 추론, 코딩 및 수학을 위해 설계된 대규모 추론 우선(open-weight) 언어 모델 패밀리입니다. 본 릴리스는 여러 변형(프로덕션 V3.2와 고성능 V3.2-Speciale)을 포함합니다. 본 프로젝트는 **DeepSeek Sparse Attention (DSA)**라는 새로운 희소 어텐션 메커니즘과 에이전트/‘사고’ 워크플로우(“Thinking in Tool-Use”)를 통해 긴 컨텍스트 추론의 비용 효율성을 강조합니다.

주요 기능(하이레벨)

  • DeepSeek Sparse Attention (DSA): 긴 컨텍스트 시나리오에서 장거리 추론을 유지하면서 연산을 크게 줄이기 위한 희소 어텐션 메커니즘입니다. (핵심 연구 주장; V3.2-Exp에 사용됨.)
  • Agentic thinking + tool-use 통합: V3.2는 툴 사용에 “사고”를 내재화하는 데 중점을 둡니다. 모델은 도구 호출 시 추론-사고 모드와 비사고(일반) 모드로 동작할 수 있어, 다단계 작업의 의사결정과 도구 오케스트레이션을 개선합니다.
  • 대규모 에이전트 데이터 합성 파이프라인: DeepSeek는 상호작용형 작업의 견고성을 높이기 위해 수천 개의 환경과 수만 개의 복잡한 지시문에 걸친 학습 코퍼스 및 에이전트 합성 파이프라인을 보고합니다.
  • DeepSeek Sparse Attention (DSA): DSA는 V3.2 라인(최초는 V3.2-Exp)에서 도입된 미세한 수준의 희소 어텐션 방법으로, 어텐션 복잡도를 단순 O(L²)에서 O(L·k) 양식(k ≪ L)으로 낮추며, 각 쿼리 토큰에 대해 더 적은 키/값 토큰을 선택합니다. 그 결과 매우 긴 컨텍스트(128K)에서 메모리/연산이 크게 감소하여 긴 컨텍스트 추론 비용이 실질적으로 낮아집니다.
  • Mixture-of-Experts (MoE) 백본과 Multi-head Latent Attention (MLA): V3 계열은 MoE를 사용해 용량을 효율적으로 확장(명목상 파라미터는 크지만 토큰당 활성화는 제한)하고, MLA 기법을 통해 품질을 유지하면서 연산을 제어합니다.

기술 사양(간단 요약)

  • 명목상 파라미터 범위: ~671B – 685B (변형에 따라 상이)
  • 컨텍스트 윈도우(문서 기준): 128,000 tokens(128K), vLLM/레퍼런스 구성
  • 어텐션: DeepSeek Sparse Attention (DSA) + MLA; 긴 컨텍스트에서 어텐션 복잡도 감소
  • 수치/학습 정밀도: BF16 / F32 및 압축 양자화 포맷(F8_E4M3 등) 배포 제공
  • 아키텍처 계열: MoE 백본(토큰당 활성화 효율)
  • 입력/출력: 표준 토크나이즈된 텍스트 입력(채팅/메시지 형식 지원); 툴 호출(tool-use API 프리미티브)과 대화형 채팅 호출 및 API 기반 프로그램적 컴플리션 지원
  • 제공 변형: v3.2, v3.2-Exp(실험적, DSA 최초 적용), v3.2-Speciale(추론 우선, 단기 API 전용)

벤치마크 성능

고연산 V3.2-Speciale는 여러 추론/수학/코딩 벤치마크에서 동급 최신 하이엔드 모델과 동등하거나 능가하는 성능을 보이며, 일부 정예 수학 문제 세트에서 최고 수준의 점수를 달성합니다. 프리프린트는 일부 추론 벤치마크에서 GPT-5 / Kimi K2 등과의 동등성을 강조하고, 기존 DeepSeek R1/V3 베이스라인 대비 다음과 같은 구체적 향상을 제시합니다:

  • AIME: 70.0 → 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Aider: 57.0 → 71.6 (Δ +14.6).

다른 모델과의 비교(하이레벨)

  • Vs GPT-5 / Gemini 3 Pro (공개 주장): DeepSeek 저자와 일부 언론 매체는 Speciale 변형이 특정 추론 및 코딩 과제에서 동급 혹은 우위라고 주장하며, 비용 효율성과 오픈 라이선스를 차별점으로 강조합니다.
  • Vs 오픈 모델(Olmo, Nemotron, Moonshot 등): DeepSeek는 긴 컨텍스트 효율성을 위한 에이전틱 트레이닝과 DSA를 핵심 차별화로 강조합니다.

대표적 사용 사례

  • 에이전트 시스템/오케스트레이션: 모델 수준의 “사고”와 명시적 툴 호출 프리미티브를 활용하는 멀티-툴 에이전트(API, 웹 스크레이퍼, 코드 실행 커넥터 등)
  • 장문서 추론/분석: 법률 문서, 대규모 연구 코퍼스, 회의록 등 — 128k 토큰 긴 컨텍스트 변형으로 매우 큰 컨텍스트를 단일 호출에 담아 처리
  • 복잡한 수학 & 코딩 지원: 공급사 벤치마크 기준, V3.2-Speciale는 고급 수학 추론과 대규모 코드 디버깅 작업에 적합
  • 비용 민감 프로덕션 배포: DSA + 가격 정책으로 고컨텍스트 워크로드의 추론 비용 절감

DeepSeek v3.2 API 사용 시작하기

CometAPI의 DeepSeek v3.2 API 가격, 공식가 대비 20% 할인:

Input Tokens$0.22
Output Tokens$0.35

필수 단계

  • cometapi.com에 로그인하세요. 아직 사용자라면 먼저 등록해 주세요
  • 인터페이스의 액세스 자격 증명(API 키)을 받습니다. 개인 센터의 API token에서 “Add Token”을 클릭해 토큰 키: sk-xxxxx를 발급받아 제출합니다.
  • 이 사이트의 URL을 확인합니다: https://api.cometapi.com/

사용 방법

  1. deepseek-v3.2” 엔드포인트를 선택해 API 요청을 전송하고 요청 본문을 설정합니다. 요청 메서드와 요청 본문은 웹사이트의 API 문서에서 확인할 수 있습니다. 편의를 위해 Apifox 테스트도 제공됩니다.
  2. 계정의 실제 CometAPI 키로 <YOUR_API_KEY>를 교체하세요.
  3. Chat 형식을 선택합니다: content 필드에 질문이나 요청을 입력하면 모델이 해당 내용에 응답합니다.
  4. .API 응답을 처리하여 생성된 답변을 얻습니다.

더 많은 모델