Home/Models/DeepSeek/DeepSeek-V3.2
D

DeepSeek-V3.2

입력:$0.216/M
출력:$0.3456/M
맥락:128K
최대 출력:4K
DeepSeek v3.2는 DeepSeek V3 제품군의 최신 프로덕션 릴리스입니다: 긴 컨텍스트 이해, 견고한 에이전트/도구 활용, 고급 추론, 코딩과 수학을 위해 설계된 대규모 ‘추론 우선’ 오픈 웨이트 언어 모델 제품군.
새로운
상업적 사용
개요
기능
가격
API
버전

DeepSeek v3.2란 무엇인가?

DeepSeek v3.2는 DeepSeek V3 계열의 최신 프로덕션 릴리스로, 긴 컨텍스트 이해, 견고한 에이전트/툴 사용, 고급 추론, 코딩 및 수학을 위해 설계된 대규모 추론 우선(open-weight) 언어 모델 패밀리입니다. 본 릴리스는 여러 변형(프로덕션 V3.2와 고성능 V3.2-Speciale)을 포함합니다. 본 프로젝트는 **DeepSeek Sparse Attention (DSA)**라는 새로운 희소 어텐션 메커니즘과 에이전트/‘사고’ 워크플로우(“Thinking in Tool-Use”)를 통해 긴 컨텍스트 추론의 비용 효율성을 강조합니다.

주요 기능(하이레벨)

  • DeepSeek Sparse Attention (DSA): 긴 컨텍스트 시나리오에서 장거리 추론을 유지하면서 연산을 크게 줄이기 위한 희소 어텐션 메커니즘입니다. (핵심 연구 주장; V3.2-Exp에 사용됨.)
  • Agentic thinking + tool-use 통합: V3.2는 툴 사용에 “사고”를 내재화하는 데 중점을 둡니다. 모델은 도구 호출 시 추론-사고 모드와 비사고(일반) 모드로 동작할 수 있어, 다단계 작업의 의사결정과 도구 오케스트레이션을 개선합니다.
  • 대규모 에이전트 데이터 합성 파이프라인: DeepSeek는 상호작용형 작업의 견고성을 높이기 위해 수천 개의 환경과 수만 개의 복잡한 지시문에 걸친 학습 코퍼스 및 에이전트 합성 파이프라인을 보고합니다.
  • DeepSeek Sparse Attention (DSA): DSA는 V3.2 라인(최초는 V3.2-Exp)에서 도입된 미세한 수준의 희소 어텐션 방법으로, 어텐션 복잡도를 단순 O(L²)에서 O(L·k) 양식(k ≪ L)으로 낮추며, 각 쿼리 토큰에 대해 더 적은 키/값 토큰을 선택합니다. 그 결과 매우 긴 컨텍스트(128K)에서 메모리/연산이 크게 감소하여 긴 컨텍스트 추론 비용이 실질적으로 낮아집니다.
  • Mixture-of-Experts (MoE) 백본과 Multi-head Latent Attention (MLA): V3 계열은 MoE를 사용해 용량을 효율적으로 확장(명목상 파라미터는 크지만 토큰당 활성화는 제한)하고, MLA 기법을 통해 품질을 유지하면서 연산을 제어합니다.

기술 사양(간단 요약)

  • 명목상 파라미터 범위: ~671B – 685B (변형에 따라 상이)
  • 컨텍스트 윈도우(문서 기준): 128,000 tokens(128K), vLLM/레퍼런스 구성
  • 어텐션: DeepSeek Sparse Attention (DSA) + MLA; 긴 컨텍스트에서 어텐션 복잡도 감소
  • 수치/학습 정밀도: BF16 / F32 및 압축 양자화 포맷(F8_E4M3 등) 배포 제공
  • 아키텍처 계열: MoE 백본(토큰당 활성화 효율)
  • 입력/출력: 표준 토크나이즈된 텍스트 입력(채팅/메시지 형식 지원); 툴 호출(tool-use API 프리미티브)과 대화형 채팅 호출 및 API 기반 프로그램적 컴플리션 지원
  • 제공 변형: v3.2, v3.2-Exp(실험적, DSA 최초 적용), v3.2-Speciale(추론 우선, 단기 API 전용)

벤치마크 성능

고연산 V3.2-Speciale는 여러 추론/수학/코딩 벤치마크에서 동급 최신 하이엔드 모델과 동등하거나 능가하는 성능을 보이며, 일부 정예 수학 문제 세트에서 최고 수준의 점수를 달성합니다. 프리프린트는 일부 추론 벤치마크에서 GPT-5 / Kimi K2 등과의 동등성을 강조하고, 기존 DeepSeek R1/V3 베이스라인 대비 다음과 같은 구체적 향상을 제시합니다:

  • AIME: 70.0 → 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Aider: 57.0 → 71.6 (Δ +14.6).

다른 모델과의 비교(하이레벨)

  • Vs GPT-5 / Gemini 3 Pro (공개 주장): DeepSeek 저자와 일부 언론 매체는 Speciale 변형이 특정 추론 및 코딩 과제에서 동급 혹은 우위라고 주장하며, 비용 효율성과 오픈 라이선스를 차별점으로 강조합니다.
  • Vs 오픈 모델(Olmo, Nemotron, Moonshot 등): DeepSeek는 긴 컨텍스트 효율성을 위한 에이전틱 트레이닝과 DSA를 핵심 차별화로 강조합니다.

대표적 사용 사례

  • 에이전트 시스템/오케스트레이션: 모델 수준의 “사고”와 명시적 툴 호출 프리미티브를 활용하는 멀티-툴 에이전트(API, 웹 스크레이퍼, 코드 실행 커넥터 등)
  • 장문서 추론/분석: 법률 문서, 대규모 연구 코퍼스, 회의록 등 — 128k 토큰 긴 컨텍스트 변형으로 매우 큰 컨텍스트를 단일 호출에 담아 처리
  • 복잡한 수학 & 코딩 지원: 공급사 벤치마크 기준, V3.2-Speciale는 고급 수학 추론과 대규모 코드 디버깅 작업에 적합
  • 비용 민감 프로덕션 배포: DSA + 가격 정책으로 고컨텍스트 워크로드의 추론 비용 절감

DeepSeek v3.2 API 사용 시작하기

CometAPI의 DeepSeek v3.2 API 가격, 공식가 대비 20% 할인:

Input Tokens$0.22
Output Tokens$0.35

필수 단계

  • cometapi.com에 로그인하세요. 아직 사용자라면 먼저 등록해 주세요
  • 인터페이스의 액세스 자격 증명(API 키)을 받습니다. 개인 센터의 API token에서 “Add Token”을 클릭해 토큰 키: sk-xxxxx를 발급받아 제출합니다.
  • 이 사이트의 URL을 확인합니다: https://api.cometapi.com/

사용 방법

  1. “deepseek-v3.2” 엔드포인트를 선택해 API 요청을 전송하고 요청 본문을 설정합니다. 요청 메서드와 요청 본문은 웹사이트의 API 문서에서 확인할 수 있습니다. 편의를 위해 Apifox 테스트도 제공됩니다.
  2. 계정의 실제 CometAPI 키로 <YOUR_API_KEY>를 교체하세요.
  3. Chat 형식을 선택합니다: content 필드에 질문이나 요청을 입력하면 모델이 해당 내용에 응답합니다.
  4. .API 응답을 처리하여 생성된 답변을 얻습니다.

DeepSeek-V3.2의 기능

[모델 이름]의 성능과 사용성을 향상시키도록 설계된 주요 기능을 살펴보세요. 이러한 기능이 프로젝트에 어떻게 도움이 되고 사용자 경험을 개선할 수 있는지 알아보세요.

DeepSeek-V3.2 가격

[모델명]의 경쟁력 있는 가격을 살펴보세요. 다양한 예산과 사용 요구에 맞게 설계되었습니다. 유연한 요금제로 사용한 만큼만 지불하므로 요구사항이 증가함에 따라 쉽게 확장할 수 있습니다. [모델명]이 비용을 관리 가능한 수준으로 유지하면서 프로젝트를 어떻게 향상시킬 수 있는지 알아보세요.
코멧 가격 (USD / M Tokens)공식 가격 (USD / M Tokens)할인
입력:$0.216/M
출력:$0.3456/M
입력:$0.27/M
출력:$0.432/M
-20%

DeepSeek-V3.2의 샘플 코드 및 API

[모델 이름]의 포괄적인 샘플 코드와 API 리소스에 액세스하여 통합 프로세스를 간소화하세요. 자세한 문서는 단계별 가이드를 제공하여 프로젝트에서 [모델 이름]의 모든 잠재력을 활용할 수 있도록 돕습니다.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="deepseek-v3.2-exp",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

DeepSeek-V3.2의 버전

DeepSeek-V3.2에 여러 스냅샷이 존재하는 이유는 업데이트 후 출력 변동으로 인해 일관성을 유지하기 위해 이전 스냅샷을 보관하거나, 개발자에게 적응 및 마이그레이션을 위한 전환 기간을 제공하거나, 글로벌 또는 지역별 엔드포인트에 따라 다양한 스냅샷을 제공하여 사용자 경험을 최적화하기 위한 것 등이 포함될 수 있습니다. 버전 간 상세한 차이점은 공식 문서를 참고해 주시기 바랍니다.
deepseek-v3.2
DeepSeek-V3.2-Exp-nothinking
DeepSeek-V3.2-Exp-thinking

더 많은 모델