API Deepseek v3.2

CometAPI
AnnaDec 3, 2025
API Deepseek v3.2

DeepSeek V3.2 dans la série V3 de DeepSeek : une famille de modèles de langage étendue « axée sur l'inférence », optimisée pour l'utilisation d'outils agents, le raisonnement sur un contexte long et un déploiement rentable.

Qu'est-ce que DeepSeek v3.2 ?

DeepSeek v3.2 est la dernière version de production de DeepSeek V3 famille : une grande famille de modèles de langage à poids ouvert, axée sur le raisonnement, conçue pour Compréhension du contexte à long terme, utilisation robuste des agents/outils, raisonnement avancé, programmation et mathématiquesCette version regroupe plusieurs variantes (la version de production V3.2 et une version spéciale haute performance V3.2). Le projet met l'accent sur l'inférence à long contexte à faible coût grâce à un nouveau mécanisme d'attention parcimonieuse appelé DeepSeek Sparse Attention (DSA) et agents / flux de travail « réfléchissants » (« Réfléchir dans l’utilisation des outils »).

Caractéristiques principales (niveau élevé)

  • Attention clairsemée DeepSeek (DSA) : Un mécanisme d'attention parcimonieuse destiné à réduire considérablement la charge de calcul dans les scénarios à contexte long, tout en préservant le raisonnement à long terme. (Rapport de recherche principal ; utilisé dans V3.2-Exp.)
  • Intégration de la pensée proactive et de l'utilisation des outils : La version 3.2 met l'accent sur l'intégration de la « réflexion » dans l'utilisation des outils : le modèle peut fonctionner en modes de raisonnement et en modes non réflexifs (normaux) lors de l'appel d'outils, améliorant ainsi la prise de décision dans les tâches à plusieurs étapes et l'orchestration des outils.
  • Pipeline de synthèse de données d'agents à grande échelle : DeepSeek présente un corpus d'entraînement et un pipeline de synthèse d'agents couvrant des milliers d'environnements et des dizaines de milliers d'instructions complexes afin d'améliorer la robustesse des tâches interactives.
  • **DeepSeek Sparse Attention (DSA)**DSA est une méthode d'attention parcimonieuse à grain fin, introduite dans la branche V3.2 (initialement dans V3.2-Exp), qui réduit la complexité de l'attention (d'une complexité naïve O(L²) à une complexité de type O(L·k) avec k ≪ L), en sélectionnant un ensemble plus restreint de paires clé/valeur pour chaque jeton de requête. Il en résulte une consommation de mémoire et de calcul considérablement réduite pour les contextes très longs (128 Ko), ce qui rend l'inférence sur des contextes longs nettement moins coûteuse.
  • **Schéma de base Mixture-of-Experts (MoE) et attention latente multi-têtes (MLA)**La famille V3 utilise MoE pour augmenter efficacement la capacité (grand nombre de paramètres nominaux avec activation limitée par jeton) ainsi que des méthodes MLA pour maintenir la qualité et contrôler le calcul.

Spécifications techniques (tableau concis)

  • Plage de paramètres nominale : ~671B - 685B (dépendant de la variante).
  • Fenêtre contextuelle (référence documentée) : Jetons 128,000 (128K) dans les configurations vLLM/référence.
  • Attention : Attention clairsemée DeepSeek (DSA) + MLA ; complexité d'attention réduite pour les contextes longs.
  • Précision numérique et d'entraînement : BF16 / F32 et formats quantifiés compressés (F8_E4M3 etc.) disponibles pour la distribution.
  • Famille architecturale : Squelette MoE (mélange d'experts) avec une économie d'activation par jeton.
  • Entrée/sortie : Saisie de texte tokenisée standard (formats de chat/message pris en charge) ; prend en charge les appels d’outils (primitives de l’API d’utilisation d’outils) et à la fois les appels interactifs de type chat et les complétions programmatiques via l’API.
  • Variantes proposées : v3.2, v3.2-Exp (expérimental, première DSA), v3.2-Speciale (raisonnement d'abord, API uniquement à court terme).

Performances de référence

calcul haute performance V3.2-Speciale Ce modèle atteint, voire surpasse, les modèles haut de gamme actuels sur plusieurs benchmarks de raisonnement, de mathématiques et de programmation, et obtient d'excellents résultats sur des ensembles de problèmes mathématiques de haut niveau. La prépublication met en évidence sa capacité à égaler, voire surpasser, des modèles tels que GPT-5 et Kimi K2 sur certains benchmarks de raisonnement, ainsi que des améliorations spécifiques par rapport aux performances de référence DeepSeek R1/V3 précédentes.

  • AIME : amélioré de 70.0 à 87.5 (Δ +17.5).
  • GPQA : 71.5 → 81.0 (Δ +9.5).
  • LCB_v6 : 63.5 → 73.3 (Δ +9.8).
  • Aide: 57.0 → 71.6 (Δ +14.6).

Comparaison avec d'autres modèles (niveau élevé)

  • Comparaison avec GPT-5 / Gemini 3 Pro (affirmations publiques) : Les auteurs de DeepSeek et plusieurs médias affirment que la variante Speciale offre des performances équivalentes, voire supérieures, sur certaines tâches de raisonnement et de codage, tout en soulignant son rapport coût-efficacité et sa licence ouverte comme facteurs de différenciation.
  • Par rapport aux modèles ouverts (Olmo, Nemotron, Moonshot, etc.) : DeepSeek met en avant la formation d'agents et l'analyse de structures de données (DSA) comme des facteurs clés de différenciation pour l'efficacité dans un contexte long.

Cas d'utilisation représentatifs

  • Systèmes multi-agents / orchestration : agents multi-outils (API, extracteurs de données Web, connecteurs d'exécution de code) qui bénéficient d'une « réflexion » au niveau du modèle + de primitives d'appel d'outils explicites.
  • Raisonnement/analyse de documents longs : Documents juridiques, grands corpus de recherche, transcriptions de réunions — les variantes à contexte long (128 000 jetons) vous permettent de conserver des contextes très volumineux dans un seul appel.
  • Assistance en mathématiques complexes et en programmation : V3.2-Speciale est préconisé pour le raisonnement mathématique avancé et les tâches de débogage de code approfondies, conformément aux normes du fournisseur.
  • Déploiements de production sensibles aux coûts : Les modifications tarifaires de DSA+ visent à réduire les coûts d'inférence pour les charges de travail à contexte élevé.

Comment commencer à utiliserDeepSeek v3.2 API

DeepSeek v3.2 Tarification de l'API dans CometAPI, 20 % de réduction sur le prix officiel :

Jetons d'entrée$0.22
Jetons de sortie$0.35

Étapes requises

  • Se connecter à cometapi.comSi vous n'êtes pas encore notre utilisateur, veuillez d'abord vous inscrire
  • Obtenez la clé API d'accès à l'interface. Cliquez sur « Ajouter un jeton » au niveau du jeton API dans l'espace personnel, récupérez la clé : sk-xxxxx et validez.
  • Obtenez l'URL de ce site : https://api.cometapi.com/

Utiliser la méthode

  1. Sélectionnez l'option "deepseek-v3.2Point de terminaison pour envoyer la requête API et définir le corps de la requête. La méthode et le corps de la requête sont disponibles dans la documentation API de notre site web. Notre site web propose également le test Apifox pour plus de commodité.
  2. Remplacer avec votre clé CometAPI réelle de votre compte.
  3. Choisir Chat Format : Insérez votre question ou votre demande dans le champ de contenu ; c’est à cela que le modèle répondra.
  4. Traiter la réponse de l'API pour obtenir la réponse générée.
En savoir plus

500+ Modèles en Une API

Jusqu'à 20% de réduction