Deepseek v3.2 API

CometAPI
AnnaDec 3, 2025
Deepseek v3.2 API

DeepSeek'in V3 serisindeki DeepSeek V3.2: Aracı araç kullanımı, uzun bağlamlı akıl yürütme ve maliyet açısından verimli dağıtım için optimize edilmiş, "önce çıkarım" odaklı büyük dil modeli ailesi.

DeepSeek v3.2 nedir?

Derin Arama v3.2 DeepSeek'teki en son üretim sürümüdür V3 aile: akıl yürütmeye öncelik veren, açık ağırlıklı, büyük bir dil modeli ailesi uzun bağlam anlayışı, sağlam aracı/araç kullanımı, gelişmiş muhakeme, kodlama ve matematikSürüm, birden fazla varyantı (üretim V3.2 ve yüksek performanslı V3.2-Speciale) bir araya getiriyor. Proje, yeni bir seyrek dikkat mekanizması aracılığıyla maliyet açısından verimli uzun bağlam çıkarımına vurgu yapıyor. DeepSeek Seyrek Dikkat (DSA) ve aracılar / “düşünme” iş akışları (“Araç Kullanımında Düşünme”).

Ana özellikler (yüksek seviye)

  • DeepSeek Seyrek Dikkat (DSA): uzun vadeli akıl yürütmeyi korurken uzun bağlamlı senaryolarda hesaplamayı önemli ölçüde azaltmayı amaçlayan seyrek dikkat mekanizması. (Temel araştırma iddiası; V3.2-Exp.)
  • Etkensel düşünme + araç-kullanım entegrasyonu: V3.2, "düşünmeyi" araç kullanımına yerleştirmeyi vurgular: model, araçları çağırırken hem akıl yürütme-düşünme modlarında hem de düşünme dışı (normal) modlarda çalışabilir, bu da çok adımlı görevlerde ve araç orkestrasyonunda karar vermeyi iyileştirir.
  • Büyük ölçekli ajan veri sentezi hattı: DeepSeek, etkileşimli görevler için sağlamlığı artırmak amacıyla binlerce ortamı ve on binlerce karmaşık talimatı kapsayan bir eğitim gövdesi ve aracı sentez hattından bahsediyor.
  • DeepSeek Seyrek Dikkat (DSA): DSA, V3.2 satırında (ilk olarak V3.2-Exp'de) tanıtılan, dikkat karmaşıklığını (saf O(L²)'den k ≪ L olan bir O(L·k) stiline) düşüren ve sorgu belirteci başına daha küçük bir anahtar/değer belirteci kümesi seçen ince taneli, seyrek bir dikkat yöntemidir. Sonuç, çok uzun bağlamlar (128K) için önemli ölçüde daha düşük bellek/işlemdir ve bu da uzun bağlam çıkarımını önemli ölçüde daha ucuz hale getirir.
  • Uzman Karışımı (MoE) omurgası ve Çok Başlı Gizli Dikkat (MLA): V3 ailesi, kapasiteyi verimli bir şekilde artırmak için MoE'yi (sınırlı jeton başına aktivasyonla büyük nominal parametre sayıları) ve kaliteyi korumak ve hesaplamayı kontrol etmek için MLA yöntemlerini kullanır.

Teknik özellikler (özet tablo)

  • Nominal parametre aralığı: ~671B - 685B (varyanta bağlı).
  • Bağlam penceresi (belgelenmiş referans): token arzı ile (128K) vLLM/referans yapılandırmalarında.
  • Dikkat: DeepSeek Seyrek Dikkat (DSA) + MLA; uzun bağlamlar için azaltılmış dikkat karmaşıklığı.
  • Sayısal ve eğitim hassasiyeti: Dağıtıma BF16 / F32 ve sıkıştırılmış nicemlenmiş formatlar (F8_E4M3 vb.) sunulmaktadır.
  • Mimarlık ailesi: MoE (uzman karışımı) omurgası, jeton başına aktivasyon ekonomisi.
  • Giriş çıkış: standart belirteçli metin girişi (sohbet/mesaj biçimleri desteklenir); araç çağrılarını (araç kullanım API ilkel öğeleri) ve hem etkileşimli sohbet tarzı çağrıları hem de API aracılığıyla programlı tamamlamaları destekler.
  • Sunulan varyantlar: v3.2, v3.2-Exp (deneysel, DSA'da ilk kez yayınlandı), v3.2-Speciale (önce akıl yürütme, kısa vadede yalnızca API).

Karşılaştırma performansı

Yüksek hesaplamalı V3.2-Speciale Çeşitli muhakeme/matematik/kodlama ölçütlerinde çağdaş üst düzey modellerle eşitliğe ulaşır veya onları aşar ve belirli seçkin matematik problem setlerinde en üst düzey puanları alır. Ön baskı, belirli muhakeme ölçütlerinde GPT-5 / Kimi K2 gibi modellerle eşitliğe ve önceki DeepSeek R1/V3 temel değerlerine kıyasla belirli iyileştirmelere dikkat çeker:

  • Ben: 70.0'dan iyileştirildi 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Yardımcı: 57.0 → 71.6 (Δ +14.6).

Diğer modellerle karşılaştırma (üst düzey)

  • GPT-5 / Gemini 3 Pro'ya Karşı (kamu iddiaları): DeepSeek yazarları ve çeşitli basın kuruluşları, Speciale varyantı için seçilmiş akıl yürütme ve kodlama görevlerinde eşitlik veya üstünlük iddia ederken, maliyet etkinliği ve açık lisanslamanın farklılaştırıcılar olduğunu vurguluyor.
  • Açık modellere karşı (Olmo, Nemotron, Moonshot, vb.): DeepSeek, uzun vadeli verimlilik için temel farklılaştırıcılar olarak aracı eğitimi ve DSA'yı öne çıkarıyor.

Temsili kullanım durumları

  • Temsilcilik sistemleri / orkestrasyon: model düzeyindeki "düşünme" ve açık araç çağırma ilkelliklerinden yararlanan çoklu araç ajanları (API'ler, web kazıyıcılar, kod yürütme bağlayıcıları).
  • Uzun belge muhakemesi / analizi: Yasal belgeler, büyük araştırma metinleri, toplantı tutanakları — uzun bağlamlı varyantlar (128 bin token) tek bir çağrıda çok büyük bağlamları tutmanıza olanak tanır.
  • Karmaşık matematik ve kodlama yardımı: V3.2-Speciale Satıcı kıyaslamalarına göre ileri matematiksel muhakeme ve kapsamlı kod hata ayıklama görevleri için teşvik edilir.
  • Maliyet duyarlı üretim dağıtımları: DSA + fiyatlandırma değişiklikleri, yüksek bağlamlı iş yükleri için çıkarım maliyetlerini düşürmeyi amaçlıyor.

Kullanmaya nasıl başlanır?Derin Arama v3.2 API

Derin Arama v3.2 CometAPI'de API Fiyatlandırması, resmi fiyattan %20 indirim:

Giriş Jetonları$0.22
Çıkış Tokenları$0.35

Gerekli Adımlar

  • Giriş cometapi.com. Eğer henüz kullanıcımız değilseniz lütfen önce kayıt olun
  • Arayüzün erişim kimlik bilgisi API anahtarını edinin. Kişisel merkezdeki API belirtecinde “Token Ekle”ye tıklayın, belirteç anahtarını edinin: sk-xxxxx ve gönderin.
  • Bu sitenin URL'sini alın: https://api.cometapi.com/

Kullanım Yöntemi

  1. "Seçindeepseek-v3.2” API isteğini göndermek ve istek gövdesini ayarlamak için uç nokta. İstek yöntemi ve istek gövdesi web sitemizin API belgesinden elde edilir. Web sitemiz ayrıca kolaylığınız için Apifox testi de sağlar.
  2. Yer değiştirmek Hesabınızdaki gerçek CometAPI anahtarınızla.
  3. Seç sohbet Biçim: Sorunuzu veya isteğinizi içerik alanına girin; model buna yanıt verecektir.
  4. Oluşturulan cevabı almak için API yanıtını işleyin.
Devamını Oku

500+ Model Tek Bir API'de

%20'ye Varan İndirim