DeepSeek v4가 이제 웹에서 이용 가능합니다: 접속 및 테스트 방법

CometAPI
AnnaApr 9, 2026
DeepSeek v4가 이제 웹에서 이용 가능합니다: 접속 및 테스트 방법

전 세계 AI 커뮤니티에 파장을 일으키며, DeepSeek이 웹에서 대망의 V4 모델을 조용히 그레이스케일 테스트 형태로 공개했다. 유출된 인터페이스 스크린샷에 따르면 Fast, Expert, Vision의 3가지 모드를 갖춘 획기적인 시스템으로, DeepSeek V4는 심층 추론 능력을 갖춘 멀티모달 강자로서 Claude Opus 및 GPT-5 계열과 맞먹거나 능가할 가능성이 있다.

이번 업데이트는 단순한 소폭 개선이 아니다. 1조 파라미터, 새로운 Engram 메모리 아키텍처로 구동되는 100만 토큰 컨텍스트 윈도우, 그리고 네이티브 이미지/비디오 처리를 갖춘 것으로 전해지며, DeepSeek V4는 소비자 친화적 비용으로 엔터프라이즈급 성능을 제공하겠다고 약속한다. 에이전트를 구축하는 개발자, 복잡한 분석에 도전하는 연구자, 최첨단 멀티모달 AI를 찾는 비즈니스 모두를 위해 이 가이드는 알아야 할 모든 것을 다룬다.

CometAPI는 DeepSeek의 진화를 면밀히 추적해 왔다. 통합 AI API 플랫폼으로서 DeepSeek V3.2 및 이전 모델을 공식 가격 대비 최대 20% 할인된 가격으로, OpenAI 호환 엔드포인트와 함께 제공해 왔으며, V4 통합을 기대하고 있다. 이 글의 후반부에서는 V4가 완전 공개되면 CometAPI가 어떻게 워크플로를 미래 대비할 수 있게 하는지 보여준다.

DeepSeek V4란 무엇인가?

DeepSeek V4는 중국 AI 연구소의 주력 V 시리즈의 다음 진화 단계다. 사고/비사고 하이브리드 모드와 강력한 에이전트 기능을 도입한 DeepSeek-V3 및 V3.2의 성공을 바탕으로, V4는 규모, 지능, 다재다능성 측면에서 비약적으로 확장된다.

업계 분석가들은 V4가 1조 파라미터를 넘는 Mixture-of-Experts(MoE) 모델이며, 효율성을 위해 토큰당 활성 파라미터는 ~37-40억 수준이라고 추정한다. V3의 MoE 기반을 정교화한 이 아키텍처는 특화된 “전문가”들을 동적으로 활성화해, 추론 비용을 대폭 절감하면서 코딩, 수학, 장문 컨텍스트 작업에서 성능을 끌어올린다.

주요 차별점은 다음과 같다:

  • 네이티브 멀티모달 지원(텍스트 + 이미지 + 비디오).
  • Engram 조건부 메모리를 통한 최대 1M 토큰의 초장문 컨텍스트.
  • 국산 하드웨어 최적화—V4는 주로 Huawei Ascend 칩에서 실행되도록 설계되어, 중국의 기술 자립 기조를 반영한다.

DeepSeek은 Apache 2.0 라이선스로 모델을 오픈소스로 공개해 온 이력이 있어, V4는 접근성이 가장 높은 프런티어 모델 중 하나가 될 가능성이 크다. 유출된 벤치마크에 따르면 HumanEval 90%, SWE-bench Verified 80%+에 도달할 수 있어, Claude Opus 4.5/4.6 및 GPT-5 Codex 계열과 정면 경쟁이 예상된다. V4는 단순한 점증적 업데이트가 아니라, 사용자 유형별로 계층화된 모드를 갖춘 완전한 제품 매트릭스 재설계를 의미하며, Kimi의 Fast/Expert 이원화와 유사하지만 Vision이 추가되었다.

DeepSeek V4 관련 최신 업데이트

2026년 4월 현재, DeepSeek V4는 전체 공개가 아닌 제한적 그레이스케일 테스트 단계다. 여러 프로그래머와 Weibo 인플루언서가 4월 7~8일에 업데이트된 채팅 인터페이스 스크린샷을 공유했는데, 기존의 듀얼 옵션(Deep Thinking R1 / Smart Search) 레이아웃에서 크게 달라졌다.

새 UI에는 세 가지 옵션이 있는 눈에 띄는 모드 전환기가 도입되었다:

  • Fast Mode(기본, 일상 작업에 대해 일일 무제한).
  • Expert Mode.
  • Vision Mode.

V4는 Huawei의 최신 실리콘을 활용할 예정이며, 4월 초 기준 “수 주 내”에 전체 공개가 예상된다.

Fast Mode(Instant라고도 함)는 기본이며 일상 사용에 대해 무제한이다. Expert Mode는 심층 사고를 강조하며 일부 테스트에서 더 높은 토큰 처리량(~64 tokens/s, Fast는 ~49)을 보였다. Vision Mode는 이미지/비디오 업로드와 분석을 직접 지원한다.

  • 일부 초기 테스터는 1M 컨텍스트와 지식 컷오프 업데이트(2025년 이후 데이터)를 보고했고, 다른 이들은 Expert가 여전히 128K 한계의 최적화된 V3.2처럼 느껴진다고 전해—그레이스케일의 점진적 성격을 확인시켜 준다.

회사는 공식 명칭에 대해 침묵하고 있지만, 인터페이스 변화, 멀티모달 시사점, 그리고 이전 유출(국산 칩 기반의 3모델 구성)과의 정합성은 이것들이 테스트 중인 V4 변형임을 강하게 시사한다. 전체 공개는 “이번 달”(2026년 4월)로 널리 예상된다.

DeepSeek V4의 새로운 기능 아키텍처는 무엇인가? (Quick 버전 vs. Expert 버전 추정)

유출된 정보는 일상 효율성과 고비용 심층 추론/멀티모달 처리를 분리하는 정교한 3계층 아키텍처를 가리킨다.

Fast Mode(Quick Version): 즉각 응답과 고처리량의 일상 대화를 위해 최적화. 경량 디스틸 변형 혹은 MoE 모델의 더 작은 활성 파라미터 슬라이스로 라우팅된다는 관측이 있다. 파일 업로드와 기본 작업을 낮은 지연으로 지원—빠른 질의나 프로토타이핑에 완벽. 일일 무제한으로 캐주얼 사용자에게 이상적.

Expert Mode(Deep Reasoning Version): 사실상 진정한 “DeepSeek V4” 코어로 널리 추정된다. 다단계 추론, 도메인별 강화, 사고 과정 시각화, 인용 추적 강화에 중점을 둔다. 내부자들은 이를 DeepSeek 리더십이 서명한 논문에 언급된 “새로운 메모리 아키텍처”(Engram 조건부 메모리)와 연계한다. Engram은 정적 지식(O(1) 해시 조회)과 동적 추론을 분리해, 연산 비용 폭증 없이 안정적인 1M 토큰 컨텍스트를 가능하게 한다. 초기 테스터들은 복잡한 문제에서 뛰어난 논리 안정성과 자체 수정 능력을 보고했다.

Vision Mode: 멀티모달 플래그십으로, 네이티브 이미지/비디오 이해 및 생성을 지원한다. 전통적인 텍스트 모델에 VLM을 덧붙이는 방식과 달리, 시각 토큰을 MoE 라우팅에 직접 통합해 모달 간 추론을 매끄럽게 만드는 “심층 통합 월드 모델” 아키텍처라는 관측이 있다.

이 Quick 대 Expert의 분리는 대중 사용자(Fast)와 파워 유저(Expert/Vision)를 모두 만족시키면서 어느 쪽의 경험도 훼손하지 않게 해 준다. 상용화 단계에서는 Expert/Vision에 할당량이 도입되고 Fast는 무료/무제한으로 유지될 수 있다.

그레이스케일 테스트로 본 DeepSeek V4의 Vision 및 Expert 모드

그레이스케일 공개가 기대감을 가장 크게 자극했다. 제가 테스트한 바는 다음과 같다:

  • Expert Mode는 더 긴 내부 “생각”(일부 보기에서 가시적 chain-of-thought)을 유발하며, 더 정확하고 인용이 달린 출력을 생성한다.
  • Vision Mode는 이미지가 첨부되면 자동으로 활성화되어, 분석 또는 생성용으로 프롬프트를 리디렉션한다.

이 기능들은 트릴리언 파라미터 규모에서 학습을 안정화하고 장기 지평 에이전트 작업을 개선하는, DeepSeek의 공개 연구인 다양체 제약 하이퍼 커넥션(mHC)과 DeepSeek Sparse Attention(DSA)과 일치한다.

Expert Mode는 이미 초기 V4 체크포인트를 가동 중일 수 있으며, 이는 지능 향상이 체감되는 이유를 설명해 준다. Vision Mode가 분리되어 있다는 점은 단순 부가 기능이 아니라 핵심 아키텍처 축임을 시사한다.

웹에서 DeepSeek V4에 접근하고 사용하는 방법: 단계별 가이드

그레이스케일 버전 접근은 간단하지만 현재 제한적이다:

  1. 공식 플랫폼 방문: chat.deepseek.com 혹은 platform.deepseek.com으로 이동해 DeepSeek 계정으로 로그인한다(무료 가입 가능).
  2. 모드 선택기 확인: 그레이스케일 코호트에 포함되었다면 새로운 Fast/Expert/Vision 버튼이 보인다. 아직 모두에게 열리지 않았으며 점진적으로 배포된다.
  3. 모드 선택:
  • 일상 대화는 Fast Mode로 시작.
  • 복잡한 추론, 코딩, 리서치는 Expert Mode로 전환.
  • 이미지를/비디오를 업로드해 Vision Mode를 트리거.
  1. 프롬프트 최적화: Expert에는 “단계별로 사고하고 논리를 검증해 주세요”처럼 상세 지시를 사용. Vision에는 이미지를 정확히 설명(예: “이 차트의 추세를 분석하고 요약 표를 생성해 주세요”).
  2. 제한 모니터링: Fast는 무제한이며, Expert와 Vision은 테스트 동안 일일 할당량이 있을 수 있다.

프로 팁: 더 풍부한 컨텍스트를 위해 웹 검색이나 파일 업로드를 활성화하라.

그레이스케일 접근이 아직 열리지 않았다면 동일한 사이트에서 DeepSeek-V3.2(현재 프로덕션 모델)를 계속 사용할 수 있다. V4 전체 롤아웃이 임박해 있으니 CometAPI를 모니터링하라.

API를 통해 DeepSeek V4를 워크플로에 통합하는 방법

웹 접근은 탐색에 좋지만, 프로덕션 사용에는 신뢰할 수 있는 API가 필요하다. 공식 DeepSeek API는 현재 V3.2(128K 컨텍스트)를 제공하지만, V4 엔드포인트도 곧 나올 것으로 예상된다.

CometAPI 소개: 원스톱 AI API 애그리게이터인 CometAPI는 이미 DeepSeek V3, V3.1, V3.2, R1 모델을 OpenAI 호환 엔드포인트, 20% 낮은 가격, 무료 스타터 크레딧, 사용 분석, 공급자 간 자동 페일오버와 함께 제공한다. V4 출시 시 코드 변경 없이 매끄럽게 추가된다.

CometAPI 빠른 설정:

  from openai import OpenAI
  client = OpenAI(api_key="your_cometapi_key", base_url="https://api.cometapi.com")
  response = client.chat.completions.create(
      model="deepseek-v4-expert",  # or vision variant
      messages=[{"role": "user", "content": "Your prompt here"}]
  )

CometAPI의 플레이그라운드는 대시보드를 바꾸지 않고도 V4 모드를 Claude나 GPT와 나란히 테스트할 수 있게 한다. 기업 입장에서는 더 낮은 비용, 예측 가능한 청구, 벤더 락인 없음—에이전트 워크플로나 멀티모달 앱 확장에 이상적이다.

DeepSeek V4의 핵심 역량과 벤치마크

유출된 데이터는 인상적인 모습을 그린다:

  • 코딩: ~90% HumanEval, 80%+ SWE-bench Verified(Claude Opus 4.6과 동급 혹은 상회 예상).
  • 추론: MATH-500 강화(~96%), 장문 컨텍스트 Needle-in-Haystack(100만 토큰에서 97%).
  • 멀티모달: 네이티브 이미지/비디오 이해에 더해 SVG/코드 생성이 V3 대비 크게 향상.
  • 효율성: MoE로 비용을 낮추고, Engram 메모리로 밀집 모델 대비 VRAM 요구량 ~45% 절감.

실사용 Expert 모드 테스트에서 V3.2 대비 더 강한 자체 수정과 저장소 레벨 코딩 능력이 관찰된다.

DeepSeek V4는 다른 대표 AI 모델과 어떻게 비교되나?

FeatureDeepSeek V4 (projected)Claude Opus 4.6GPT-5.4 Codex
Parameters (total/active)~1T / ~37BUndisclosedUndisclosed
Context Window1M tokens200K-256K~200K
Multimodal (native)Yes (Vision Mode)YesYes
Coding (SWE-bench)80%+80.9%~80%
Pricing (est. output)Very low (open trajectory)HighHigh
Open WeightsLikelyNoNo

V4의 강점은 비용 대비 성능과 오픈 접근성에 있으며, 소규모 팀도 프런티어 AI를 활용할 수 있게 해 준다.

DeepSeek V4의 실용적 활용 사례

  • 소프트웨어 개발: 다중 파일 리팩터링, 버그 탐지, 전체 저장소 분석에 Expert Mode 활용.
  • 멀티모달 분석: 차트, 다이어그램, 비디오 업로드 후 즉시 인사이트 도출(Vision Mode).
  • 에이전트 워크플로: 장문 컨텍스트 메모리로 자율 리서치 에이전트를 강화.
  • 콘텐츠/디자인: 설명에서 정확한 SVG/코드 생성; 시각 데이터 분석.
  • 교육/연구: 검증 가능한 인용과 함께 단계별 설명.

DeepSeek V4 및 그 이후를 위한 CometAPI를 선택해야 하는 이유

개발자와 기업에게 웹 채팅은 출발점일 뿐이고, 확장 가능한 프로덕션에는 견고한 인프라가 필요하다. CometAPI는 바로 그 해답을 제공한다: 오늘 즉시 할인된 DeepSeek 접근(V3.2 $0.22–$0.35/M tokens)과 V4로의 명확한 마이그레이션 경로. 프롬프트 캐싱, 분석, 멀티 모델 라우팅 같은 기능은 비용을 20–30% 절감하면서 다운타임 위험을 제거한다. 차세대 AI 에이전트를 구축하든 비전 기능을 임베드하든, CometAPI는 V4 API 출시와 동시에 준비 완료 상태를 보장한다.

결론

계층화된 모드로 프런티어급 멀티모달 지능을 무료로 제공함으로써, DeepSeek은 첨단 AI의 대중화를 추진하는 동시에 국산 연산 환경에 최적화하고 있다. 이는 서구 연구소들에 성능과 가격 양면에서 압박을 가하며, 업계를 더 효율적이고 접근 가능한 모델로 가속할 것이다.

DeepSeek V4는 단순한 업그레이드가 아니라, 효율적이고 접근 가능한 초지능을 위한 청사진이다. 오늘 웹에서 실험을 시작하고, 내일 매끄럽게 확장할 수 있도록 CometAPI로 스택을 준비하라.

저렴한 비용으로 최고 모델에 액세스

더 보기