DeepSeek-V3.2

DeepSeek
deepseek-v3.2
Giriş:$0.22/M
Çıktı:$0.35/M
Bağlam:128K
Maksimum Çıktı:4K
DeepSeek v3.2, DeepSeek V3 ailesindeki en yeni üretim sürümüdür: uzun bağlamları anlama, sağlam ajan/araç kullanımı, gelişmiş akıl yürütme, kodlama ve matematik için tasarlanmış, büyük, akıl yürütmeyi önceleyen ve ağırlıkları açık bir dil modeli ailesi.

DeepSeek v3.2 nedir?

DeepSeek v3.2, DeepSeek V3 ailesinin en son üretim sürümüdür: uzun bağlam anlama, sağlam ajan/araç kullanımı, gelişmiş akıl yürütme, kodlama ve matematik için tasarlanmış, akıl yürütme öncelikli, ağırlıkları açık bir dil modeli ailesi. Sürüm, birden çok varyantı paketler (üretim V3.2 ve yüksek performanslı V3.2-Speciale). Proje, DeepSeek Sparse Attention (DSA) adlı yeni bir seyrek dikkat mekanizması ve ajanlar / “düşünme” iş akışları (“Araç Kullanımında Düşünme”) aracılığıyla uzun bağlam çıkarımını maliyet etkin hâle getirmeyi vurgular.

Başlıca özellikler (üst düzey)

  • DeepSeek Sparse Attention (DSA): uzun bağlam senaryolarında hesaplamayı dramatik biçimde azaltırken uzun menzilli akıl yürütmeyi korumayı amaçlayan bir seyrek-dikkat mekanizması. (Temel araştırma iddiası; V3.2-Exp içinde kullanılır.)
  • Ajanik düşünme + araç kullanımı entegrasyonu: V3.2, “düşünmeyi” araç kullanımına gömmeyi vurgular: model, çok adımlı görevlerde ve araç orkestrasyonunda karar vermeyi iyileştirerek, araç çağırırken düşünme/akıl yürütme modlarında ve düşünmesiz (normal) modlarda çalışabilir.
  • Büyük ölçekli ajan verisi sentez hattı: DeepSeek, etkileşimli görevlerde sağlamlığı artırmak için binlerce ortam ve on binlerce karmaşık talimatı kapsayan bir eğitim korpusu ve ajan-sentez hattı bildiriyor.
  • DeepSeek Sparse Attention (DSA): DSA, V3.2 serisinde (ilk olarak V3.2-Exp’de) tanıtılan, dikkat karmaşıklığını (naif O(L²)’den k ≪ L ile O(L·k) tarzına) azaltan ince taneli bir seyrek dikkat yöntemidir; her sorgu belirteci için daha küçük bir anahtar/değer belirteci kümesi seçer. Sonuç, çok uzun bağlamlar (128K) için belirgin biçimde daha düşük bellek/hesaplama gereksinimi olup, uzun bağlam çıkarımını maddi olarak daha ucuz hâle getirir.
  • Mixture-of-Experts (MoE) omurgası ve Multi-head Latent Attention (MLA): V3 ailesi, kapasiteyi verimli biçimde artırmak için MoE kullanır (sınırlı belirteç başına etkinleşmeyle büyük nominal parametre sayıları) ve hesaplamayı kontrol ederken kaliteyi korumak için MLA yöntemleriyle birlikte çalışır.

Teknik özellikler (kısa tablo)

  • Nominal parametre aralığı: ~671B – 685B (varyanta bağlı).
  • Bağlam penceresi (belgelenmiş referans): 128,000 token (128K) vLLM/reference yapılandırmalarında.
  • Dikkat: DeepSeek Sparse Attention (DSA) + MLA; uzun bağlamlar için azaltılmış dikkat karmaşıklığı.
  • Sayısal ve eğitim hassasiyeti: BF16 / F32 ve dağıtım için sıkıştırılmış kuantize formatlar (F8_E4M3 vb.) mevcuttur.
  • Mimari aile: Belirteç başına etkinleşme ekonomisine sahip MoE (mixture-of-experts) omurgası.
  • Girdi / çıktı: standart tokenleştirilmiş metin girişi (sohbet/mesaj formatları desteklenir); araç çağrılarını (tool-use API ilkel yapıları) ve hem etkileşimli sohbet tarzı çağrıları hem de API üzerinden programatik tamamlama çağrılarını destekler.
  • Sunulan varyantlar: v3.2, v3.2-Exp (deneysel, DSA ilk çıkış), v3.2-Speciale (akıl yürütme öncelikli, kısa vadede yalnızca API).

Kıyaslama performansı

Yüksek hesaplamalı V3.2-Speciale, çeşitli akıl yürütme/matematik/kodlama kıyaslarında güncel üst düzey modellere erişir veya onları aşar ve seçkin bazı matematik problem setlerinde üst düzey puanlar alır. Ön baskı, belirli akıl yürütme kıyaslarında GPT-5 / Kimi K2 gibi modellerle pariteyi vurgular; önceki DeepSeek R1/V3 temel modellerine kıyasla belirli iyileştirmeler:

  • AIME: 70.0’dan 87.5’e (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Aider: 57.0 → 71.6 (Δ +14.6).

Diğer modellerle karşılaştırma (üst düzey)

  • GPT-5 / Gemini 3 Pro’ya karşı (kamusal iddialar): DeepSeek yazarları ve çeşitli basın organları, Speciale varyantı için seçili akıl yürütme ve kodlama görevlerinde parite veya üstünlük iddia ederken, maliyet etkinliğini ve açık lisanslamayı ayırt edici unsurlar olarak vurgular.
  • Açık modellerle karşı (Olmo, Nemotron, Moonshot, vb.): DeepSeek, uzun bağlam verimliliği için ajanik eğitim ve DSA’yı ana ayırt ediciler olarak vurgular.

Temsili kullanım senaryoları

  • Ajanik sistemler / orkestrasyon: model düzeyinde “düşünme” + açık araç çağrısı ilkel yapılarına fayda sağlayan çok araçlı ajanlar (API’ler, web kazıyıcıları, kod yürütme bağlayıcıları).
  • Uzun belge akıl yürütme / analiz: hukuki belgeler, büyük araştırma derlemeleri, toplantı dökümleri — uzun bağlam varyantları (128k token) çok büyük bağlamları tek çağrıda tutmanıza izin verir.
  • Karmaşık matematik ve kodlama desteği: sağlayıcının kıyaslarına göre V3.2-Speciale, gelişmiş matematiksel akıl yürütme ve kapsamlı kod hata ayıklama görevleri için öne çıkarılır.
  • Maliyet hassas üretim dağıtımları: DSA + fiyatlandırma değişiklikleri, yüksek bağlam iş yükleri için çıkarım maliyetlerini düşürmeyi hedefler.

DeepSeek v3.2 API’sini kullanmaya nasıl başlanır

CometAPI’de DeepSeek v3.2 API Fiyatlandırması, resmi fiyattan %20 indirim:

Girdi token’ları$0.22
Çıktı token’ları$0.35

Gerekli adımlar

  • cometapi.com adresine giriş yapın. Henüz kullanıcımız değilseniz, lütfen önce kayıt olun.
  • Arayüzün erişim kimlik bilgisi API anahtarını alın. Kişisel merkezde API token bölümünde “Add Token”a tıklayın, belirteç anahtarını alın: sk-xxxxx ve gönderin.
  • Bu sitenin URL’sini alın: https://api.cometapi.com/

Kullanım yöntemi

  1. API isteği göndermek için “deepseek-v3.2” uç noktasını seçin ve istek gövdesini ayarlayın. İstek yöntemi ve istek gövdesi web sitemizdeki API dokümanından edinilir. Kolaylığınız için sitemiz Apifox testi de sağlar.
  2. Hesabınızdaki gerçek CometAPI anahtarınızla <YOUR_API_KEY> değerini değiştirin.
  3. [Chat] formatını seçin: Sorunuzu veya talebinizi content alanına ekleyin — modelin yanıtladığı kısım budur.
  4. .API yanıtını işleyin ve oluşturulan yanıtı alın.

Daha Fazla Model