Guide complet d'utilisation de DeepSeek R1

CometAPI
AnnaMay 13, 2025
Guide complet d'utilisation de DeepSeek R1

Dans le paysage en constante évolution de l'intelligence artificielle, DeepSeek R1 s'est imposé comme un concurrent redoutable, défiant les acteurs établis grâce à son accessibilité open source et à ses capacités de raisonnement avancées. Développé par l'entreprise chinoise d'IA DeepSeek, R1 a attiré l'attention pour ses performances, sa rentabilité et son adaptabilité sur diverses plateformes. Cet article explore les subtilités de DeepSeek R1 et offre un aperçu de ses fonctionnalités, de ses applications et des meilleures pratiques pour une utilisation efficace.

Qu'est-ce que DeepSeek R1 ?

DeepSeek R1 est un modèle de langage étendu (LLM) introduit par DeepSeek en janvier 2025. Il compte 671 milliards de paramètres et est conçu pour exceller dans les tâches exigeant un raisonnement complexe, telles que les mathématiques, le codage et la compréhension multilingue. Développé avec seulement 1 2,000 puces Nvidia H800, DeepSeek RXNUMX met en avant son approche d'ingénierie rentable.

Fonctionnalités clés

  • Accessibilité open source:DeepSeek R1 est disponible gratuitement au public, permettant aux développeurs et aux chercheurs d'explorer et de personnaliser ses capacités.
  • Raisonnement par chaîne de pensée:Le modèle utilise une méthodologie de « chaîne de pensée », simulant un processus de raisonnement qui améliore la précision dans les tâches complexes.
  • Capacités multifonctionnelles:DeepSeek R1 excelle dans diverses tâches, notamment la résolution de problèmes mathématiques, l'écriture et le débogage de code, la génération de texte de type humain et l'analyse de requêtes complexes.
  • Disponibilité de la plateforme:Les utilisateurs peuvent accéder à DeepSeek R1 via son interface Web, son application mobile ou son API, facilitant l'intégration dans diverses applications.

Comment la « R2025-Refresh » d’avril 1 a-t-elle encore amélioré le modèle ?

Une mise à jour début avril a augmenté la longueur du contexte à 200 9 jetons et ajouté une nouvelle invite système « Réflexion » qui demande au modèle d'exécuter une évaluation interne avant de répondre. Les tests communautaires préliminaires publiés sur des tutoriels YouTube montrent une amélioration de 12 points sur la suite de raisonnement AGIEval, tandis que la latence d'inférence a diminué de XNUMX %.

Comment démarrer avec DeepSeek R1

DeepSeek R1 est accessible via plusieurs plateformes :

  • Interface Web:Les utilisateurs peuvent interagir avec le modèle via le site Web officiel de DeepSeek.
  • Applications mobiles:Le chatbot DeepSeek est disponible sur les applications pour smartphone, offrant un accès en déplacement. ​
  • Intégration de l'APILes développeurs peuvent intégrer DeepSeek R1 à des applications personnalisées grâce à son API. De plus, des plateformes comme OpenRouter offrent un accès API gratuit à DeepSeek R1, permettant aux utilisateurs d'utiliser le modèle sans investissement matériel important.

« Puis-je simplement utiliser DeepSeek R1 dans mon navigateur ? »

Oui, DeepSeek exploite un chat en ligne gratuit sur app.deepseek.com. Après avoir créé un compte, vous recevez 100 75 « jetons de réflexion » par jour, réapprovisionnés à minuit, heure de Pékin, ce qui couvre environ XNUMX chats de durée moyenne. La mise à jour de mars a également ajouté une barre latérale « Outil rapide » permettant de générer des extraits de code SQL et Python, ainsi que des lettres de motivation en un seul clic.

Étapes pratiques

  1. Inscrivez-vous en utilisant le courrier électronique ou WeChat.
  2. Choisissez la langue (Anglais, chinois ou voiture multilingue).
  3. Choisissez un modèle de système—« Usage général », « Développeur » ou « Tuteur en mathématiques ».
  4. Entrez votre invite; Maj-Entrée pour multiligne.
  5. Inspecter la trace du raisonnement en activant « Pensées » — une fonctionnalité didactique unique exposant la chaîne intermédiaire du modèle (visible uniquement par vous).

Puis-je simplement utiliser DeepSeek R1 sur mon mobile ?

L'application DeepSeek s'est hissée à la première place dans la catégorie productivité d'Apple en mars 1. L'interface utilisateur mobile reflète celle du bureau, mais inclut un résumé « mini-LLM » hors ligne pour les PDF jusqu'à 2025 pages, exploitant la quantification sur l'appareil d'un modèle frère à paramètre 20 B.

Efficacité du matériel

Il est remarquable que DeepSeek R1 puisse être exécuté entièrement en mémoire sur le Mac Studio d'Apple équipé de la puce M3 Ultra, consommant moins de 200 W. Cette configuration remet en question les configurations multi-GPU traditionnelles et offre une alternative plus économe en énergie pour la gestion de modèles linguistiques volumineux.

DeepSeek R1

Comment appeler DeepSeek R1 à partir du code ?

« L'API DeepSeek R1 est-elle compatible avec celle d'OpenAI ? »

En grande partie oui. DeepSeek reflète intentionnellement Schéma de complétion de chat OpenAI, afin que les SDK existants (Python, Node, Curl) fonctionnent après avoir modifié base_url et fournir une clé DeepSeek.

pythonimport openai
openai.api_base = "https://api.deepseek.com/v1"
openai.api_key  = "YOUR_DSK_KEY"
resp = openai.ChatCompletion.create(
  model="deepseek-r1",
  messages=[
      {"role":"system","content":"You are a data scientist."},
      {"role":"user","content":"Explain gradient boosting in 1 paragraph."}
  ]
)
print(resp.choices.message.content)

Les principaux deltas :

FonctionnalitéDeepSeek R1OpenAI GPT-4T
Jetons max. (25 avril)200 XNUMX128 XNUMX
Outil appelant la spécification JSONidentiqueidentique
Le streamingSSE et gRPCSSE
Prix ​​(entrée/sortie)0.50 / 2.18 par M jetons10 / 30

API Comet

CometAPI donne accès à plus de 500 modèles d'IA, dont des modèles multimodaux open source et spécialisés pour le chat, les images, le code, etc. Son principal atout réside dans la simplification du processus traditionnellement complexe d'intégration de l'IA. Grâce à elle, l'accès aux principaux outils d'IA tels que Claude, OpenAI, Deepseek et Gemini est disponible via un abonnement unique et unifié. Vous pouvez utiliser l'API de CometAPI pour créer de la musique et des illustrations, générer des vidéos et créer vos propres workflows.

API Comet proposer un prix bien inférieur au prix officiel pour vous aider à intégrer API DeepSeek R1, et recevez 1 $ sur votre compte après votre inscription et votre connexion ! Bienvenue pour découvrir CometAPI. CometAPI vous propose un paiement à l'utilisation.API DeepSeek R1 (nom du modèle : deepseek-ai/deepseek-r1 ; deepseek-reasoner ; deepseek-r1) dans CometAPI La tarification est structurée comme suit :

  • Jetons d'entrée : 0.184 $/M jetons
  • Jetons de sortie : 1.936 $/M jetons

Informations sur le modèle dans l'API Comet, veuillez consulter API doc.

Comment affiner ou étendre DeepSeek R1 ?

« De quelles données et de quel matériel ai-je besoin ? »

Parce que R1 est publié en tant que Points de contrôle quantifiés 8 bits et 4 bits, vous pouvez affiner vos réglages sur une seule carte RTX 4090 (24 Go) grâce aux adaptateurs LoRA et à la quantification QLoRA. Un tutoriel DataCamp présente l'affinement d'une chaîne de pensée médicale en 42 minutes.

Pipeline recommandé :

  1. Convertir en QLoRA via bitsandbytes 4 bits.
  2. Fusionner GPTQ‑LoRA après une formation à l'inférence.
  3. Évaluer sur votre tâche en aval (par exemple, PubMedQA).

« Comment préserver la qualité du raisonnement lors du réglage fin ? »

Utilisez le distillation de la chaîne de pensée: inclure un « caché » « champ pendant l'entraînement supervisé, mais le supprime à l'exécution. Une étude de DeepSeek fait état d'une dégradation de seulement 1 % avec cette technique.

Quelles astuces d’ingénierie rapide fonctionnent le mieux avec R1 ?

Invites structurées

Oui. Les tests du guide Vercel AI SDK montrent que les invites système structurées par puces ainsi que les instructions explicites rôle-tâche-format-style les directives réduisent les hallucinations de 17 %.

Exemple de modèle

vbnetYou are . TASK: . 
FORMAT: return Markdown with sections: Overview, Evidence, Conclusion. 
STYLE: Formal, cite sources.

« Comment puis-je forcer le raisonnement en plusieurs étapes ? »

Activer le intégré Réflexion mode en ajoutant :

arduino<internal_tool="reflection" temperature=0.0 />

R1 écrit ensuite un bloc-notes interne, l'évalue et ne renvoie que la réponse finale, ce qui permet d'obtenir des performances supérieures sur les tâches de chaîne de pensée sans révéler le raisonnement à l'extérieur.

Considérations de sécurité et d’éthique

Considérations de sécurité ?

DeepSeek expédie un couche de modération open source (deepseek-moderation-v1) couvrant les violations de droits d'auteur, de haine et de sexualité. Vous pouvez l'exécuter localement ou appeler le point de terminaison hébergé.

Conformité des licences

Au-delà des attributions open source standard, la licence de R1 exige la publication d'un audit d'exactitude et de partialité pour les déploiements dépassant 1 M d'utilisateurs mensuels.

Conclusion:

Mélanges DeepSeek R1 licences ouvertes, raisonnement concurrentiel et interopérabilité conviviale pour les développeurs Cela réduit les obstacles à l'adoption des LLM avancés. Que vous ayez simplement besoin d'un assistant de chat gratuit, d'une API de remplacement pour GPT-4 ou d'une base évolutive pour vos applications verticales, R1 offre une option intéressante, notamment hors des États-Unis, où la latence vers les serveurs chinois est minime.

En suivant les étapes pratiques ci-dessus (création d'un compte, changement d'URL de base, ajustement avec QLoRA et application de la modération), vous pouvez dès aujourd'hui intégrer un raisonnement de pointe à vos projets tout en prévoyant des coûts. La cadence rapide des mises à jour de DeepSeek laisse présager de nouveaux gains imminents ; ajoutez donc les ressources citées à vos favoris et poursuivez vos expérimentations.

SHARE THIS BLOG

500+ Modèles en Une API

Jusqu'à 20% de réduction