Comment télécharger Stable Diffusion — Un guide étape par étape

CometAPI
AnnaJan 17, 2026
Comment télécharger Stable Diffusion — Un guide étape par étape

Stable Diffusion reste la famille open source de modèles texte‑vers‑image la plus utilisée. Stability AI a continué d’itérer (publiant notamment la série Stable Diffusion 3 et des améliorations de SDXL). Avec le lancement récent de Stable Diffusion 3.5, les capacités de cette technologie se sont encore élargies, offrant une qualité d’image renforcée, une meilleure compréhension des prompts et des applications plus flexibles. Ce guide propose une vue d’ensemble complète de Stable Diffusion, de son fonctionnement interne à un guide d’installation pas à pas, pour vous permettre d’exploiter le potentiel créatif de cette IA révolutionnaire.

CometAPI, qui propose une API cloud de Stable Diffusion pour la génération d’images.

Qu’est-ce que Stable Diffusion ?

Stable Diffusion est un modèle d’apprentissage profond qui génère des images à partir de descriptions textuelles, une technologie appelée synthèse texte‑vers‑image. Contrairement à beaucoup d’autres générateurs d’images par IA, Stable Diffusion est open source, ce qui permet à chacun de l’utiliser, de le modifier et de l’étendre.

Le modèle est entraîné sur un jeu de données massif d’images et de leurs descriptions textuelles correspondantes, ce qui lui permet d’apprendre les relations complexes entre les mots et les concepts visuels. Lorsque vous fournissez un prompt textuel, Stable Diffusion utilise ces connaissances acquises pour créer une image unique correspondant à votre description. Le niveau de détail et de réalisme obtenu est remarquable, allant d’images photoréalistes à des illustrations fantastiques, dans une large gamme de styles.

Des capacités au‑delà du texte‑vers‑image

Bien que sa fonction principale soit de générer des images à partir de texte, les capacités de Stable Diffusion vont bien au‑delà de cette fonctionnalité centrale. Sa polyvalence en fait un outil complet pour un large éventail de tâches créatives :

  • Image‑vers‑image : vous pouvez fournir une image existante et un prompt textuel pour guider le modèle dans la transformation de l’image d’origine. Cette fonction est idéale pour la stylisation artistique, l’exploration de concepts et l’expérimentation créative.
  • Inpainting et outpainting : Stable Diffusion vous permet de modifier sélectivement des parties d’une image (inpainting) ou d’étendre l’image au‑delà de ses bordures d’origine (outpainting). C’est extrêmement utile pour la restauration de photos, la suppression d’objets et l’extension de la toile de vos créations.
  • Création vidéo : avec les avancées récentes, Stable Diffusion peut désormais être utilisé pour créer des vidéos et des animations, ouvrant de nouvelles possibilités pour la narration visuelle dynamique.
  • ControlNets : ce sont des modèles additionnels qui offrent un contrôle plus précis sur le processus de génération d’images, vous permettant de spécifier des poses, des cartes de profondeur et d’autres éléments structurels.

Open source et accessibilité

L’un des aspects les plus importants de Stable Diffusion est sa nature open source. Le code et les poids du modèle sont publiquement disponibles, ce qui signifie que vous pouvez l’exécuter sur votre propre ordinateur, à condition de disposer du matériel nécessaire. Ce niveau d’accessibilité le distingue de nombreux services propriétaires de génération d’images par IA et a été un facteur clé de son adoption massive. La possibilité d’exécuter le modèle en local donne aux utilisateurs une liberté créative et un contrôle total sur leur travail, sans les restrictions de contenu ni les frais de service associés à certaines plateformes en ligne.

Comment fonctionne Stable Diffusion ?

L’approche latente réduit drastiquement la mémoire et le coût de calcul par rapport à la diffusion en espace pixel, ce qui a permis à Stable Diffusion d’être pratique sur des GPU grand public. Des variantes telles que SDXL et la famille 3.x améliorent la fidélité multi‑sujets, la résolution et la gestion des prompts ; de nouvelles versions sont publiées périodiquement par Stability et la communauté.

Les composants clés : VAE, U‑Net et encodeur de texte

Stable Diffusion se compose de trois éléments principaux qui travaillent ensemble pour générer des images :

Autoencodeur variationnel (VAE) : le VAE est responsable de la compression des images haute résolution des données d’entraînement dans une représentation en espace latent plus compacte, puis de la décompression de la représentation latente générée en une image en pleine résolution.

U‑Net : c’est le cœur du modèle, un réseau neuronal qui opère dans l’espace latent. L’U‑Net est entraîné à prédire et à supprimer le bruit ajouté pendant le processus de diffusion. Il prend comme entrée la représentation latente bruitée et le prompt textuel, puis produit une représentation latente débruitée.

Encodeur de texte : l’encodeur de texte transforme votre prompt en une représentation numérique compréhensible par l’U‑Net. Stable Diffusion utilise généralement un encodeur de texte pré‑entraîné appelé CLIP (Contrastive Language‑Image Pre‑Training), entraîné sur un vaste jeu de données d’images et de leurs légendes. CLIP est très efficace pour capturer le sens sémantique du texte et le traduire dans un format pouvant guider le processus de génération d’images.

Le processus de débruitage

Le processus de génération d’images dans Stable Diffusion peut être résumé comme suit :

  1. Encodage du texte : votre prompt est passé dans l’encodeur de texte (CLIP) pour créer un embedding textuel.
  2. Génération de bruit aléatoire : une image de bruit aléatoire est générée dans l’espace latent.
  3. Boucle de débruitage : l’U‑Net débruite itérativement l’image bruitée, guidé par l’embedding textuel. À chaque étape, l’U‑Net prédit le bruit présent dans l’image latente et le soustrait, affinant progressivement l’image pour correspondre au prompt.
  4. Décodage de l’image : une fois le débruitage terminé, la représentation latente finale est passée dans le décodeur du VAE pour générer l’image finale en haute résolution.

De quel matériel et logiciel ai‑je besoin ?

Recommandations matérielles typiques

  • GPU : NVIDIA avec prise en charge CUDA fortement recommandé. Pour une utilisation moderne fluide, visez ≥8 GB VRAM pour des résolutions modestes ; 12–24 GB offrent une expérience bien plus confortable pour les hautes résolutions ou les modèles en précision mixte. De très petites expérimentations sont possibles sur des cartes à VRAM plus faible avec des optimisations, mais les performances et la taille maximale d’image seront limitées.
  • CPU / RAM : tout CPU multicœur moderne et ≥16 GB RAM constituent une base pratique.
  • Stockage : SSD (NVMe de préférence) et 20–50 GB d’espace libre pour stocker les modèles, caches et fichiers auxiliaires.
  • OS : Linux (variantes Ubuntu) est le plus pratique pour les utilisateurs avancés ; Windows 10/11 est pleinement supporté pour les interfaces GUI ; Docker fonctionne pour les serveurs.

Prérequis logiciels

  • Python 3.10+ ou environnement Conda.
  • Kit CUDA / pilote NVIDIA pour votre GPU et roue PyTorch correspondante (sauf si vous prévoyez le mode CPU‑only, très lent).
  • Git, Git LFS (pour certains téléchargements de modèles) et, facultativement, un compte Hugging Face pour les modèles nécessitant l’acceptation d’une licence.

Important — licence et sécurité : de nombreux checkpoints Stable Diffusion sont disponibles sous la licence communautaire de Stability AI ou des licences spécifiques aux modèles et nécessitent une acceptation avant téléchargement. Les modèles hébergés sur Hugging Face exigent souvent que vous vous connectiez à un compte Hugging Face et acceptiez explicitement les conditions ; les téléchargements automatisés échoueront sans cette approbation.


Comment installer Stable Diffusion (guide pas à pas) ?

Voici trois chemins d’installation pratiques. Choisissez celui qui correspond à vos besoins :

  • Parcours A — Interface complète (GUI) : AUTOMATIC1111 Stable Diffusion WebUI (idéal pour un usage interactif, nombreuses extensions communautaires).
  • Parcours B — Programmatique : pipeline Hugging Face diffusers (idéal pour l’intégration et le scripting).
  • Parcours C — Cloud / Docker : utilisez une VM cloud ou un conteneur si vous n’avez pas de GPU local.

Comment télécharger les poids des modèles et accepter les licences ?

Les poids des modèles Stable Diffusion sont distribués de plusieurs façons :

  1. Publications officielles de Stability AI — Stability publie les modèles centraux et annonce les versions majeures (3.x, SDXL, etc.). Ces modèles sont souvent disponibles sur le site de Stability et sur Hugging Face.
  2. Model cards Hugging Face — de nombreux checkpoints officiels et communautaires sont hébergés sur Hugging Face. Pour la plupart des checkpoints SD publiés, vous devez vous connecter et accepter la licence du modèle avant de le télécharger. L’API diffusers respecte ce flux.
  3. Hubs communautaires (Civitai, GitHub, etc.) — ils hébergent des checkpoints communautaires, embeddings et LoRA ; vérifiez la licence de chaque ressource.

Étapes pratiques pour télécharger :

  • Créez un compte Hugging Face si nécessaire.
  • Visitez la page du modèle (par exemple stabilityai/stable-diffusion-3-5) et acceptez la licence.
  • Utilisez huggingface-cli ou la boîte de dialogue de téléchargement de modèles du WebUI. Pour les modèles adossés à Git LFS, installez git lfs et git clone selon les instructions.

Comment installer le WebUI AUTOMATIC1111 sur Windows ou Linux ?

Le WebUI d’AUTOMATIC1111 est une interface graphique populaire et activement maintenue, avec de nombreuses extensions et options de configuration. Le dépôt fournit des notes de version et un lanceur simple.

1) Préparation (Windows)

  • Installez le dernier pilote NVIDIA pour votre GPU.
  • Installez Git for Windows.
  • Si vous préférez Conda : installez Miniconda.

2) Cloner et lancer (Windows)

Ouvrez PowerShell ou l’Invite de commandes, puis exécutez :

# clone the WebUI
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# On Windows, the provided batch scripts will handle dependencies.
# Use the following to fetch everything and launch:
.\webui-user.bat
# or, in older releases:
# .\run.bat

Le script installera les paquets Python, téléchargera les composants requis et ouvrira l’interface web sur http://127.0.0.1:7860 par défaut. Si le projet demande un fichier de modèle, voir l’étape Téléchargement du modèle ci‑dessus.

3) Cloner et lancer (Linux)

Recommandé : créez un virtualenv ou un environnement conda.

# system prerequisites: Python3, git, wget (example: Ubuntu)
sudo apt update && sudo apt install -y git python3-venv

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# Create a venv and activate
python3 -m venv venv
source venv/bin/activate

# Launch (the launcher will install requirements)
python launch.py

Sous Linux, vous devrez souvent installer au préalable la version adéquate de PyTorch compatible CUDA afin d’assurer l’accélération GPU.

Où placer les poids du modèle : placez les fichiers .ckpt, .safetensors ou les fichiers SDXL dans models/Stable-diffusion/ (créez le dossier si nécessaire). Le WebUI détecte automatiquement les poids.


Comment installer Stable Diffusion avec Hugging Face Diffusers ?

Cette voie est idéale si vous souhaitez un pipeline programmable et scriptable ou si vous intégrez la génération dans une application.

1) Installer les paquets Python

Créez et activez un environnement virtuel, puis installez les paquets requis :

python -m venv sdenv
source sdenv/bin/activate
pip install --upgrade pip
# Core packages (example - adjust CUDA wheel for your system per PyTorch's site)
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118
pip install diffusers transformers accelerate safetensors transformers[torch] huggingface-hub

Astuce : installez la roue PyTorch correspondant à votre version de CUDA via la page d’installation officielle de PyTorch. La documentation de diffusers liste les ensembles de paquets compatibles.

2) Authentifier et télécharger les modèles (Hugging Face)

De nombreux checkpoints Stable Diffusion sur Hugging Face exigent que vous soyez connecté et que vous acceptiez une licence. Dans un terminal :

pip install huggingface_hub
huggingface-cli login
# you will be prompted to paste your token (get it from your Hugging Face account settings)

Pour charger un modèle par programmation (exemple d’un checkpoint hébergé sur Hugging Face) :

from diffusers import StableDiffusionPipeline
import torch

model_id = "stabilityai/stable-diffusion-3-5"  # example; replace with the model you agreed to
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16, use_safetensors=True)
pipe = pipe.to("cuda")

image = pipe("A professional photograph of a mountain at sunrise", num_inference_steps=25).images[0]
image.save("output.png")

Si un modèle requiert use_auth_token=True dans d’anciennes versions, fournissez use_auth_token=HUGGINGFACE_TOKEN ou assurez‑vous d’avoir exécuté huggingface-cli login. Consultez toujours la fiche du modèle pour les instructions de licence.


Comment utiliser une instance cloud ou Docker ?

Si vous n’avez pas de GPU local adapté, utilisez une VM cloud (AWS, GCP, Azure) avec un GPU NVIDIA ou une instance IA spécialisée. Alternativement, de nombreux dépôts WebUI publient des Dockerfiles ou des images Docker communautaires.

Un schéma Docker simple (exemple) :

# pull a community image (verify authenticity before use)
docker pull automatic1111/stable-diffusion-webui:latest

# run (bind port 7860)
docker run --gpus all -p 7860:7860 -v /local/models:/data/models automatic1111/stable-diffusion-webui:latest

Les fournisseurs cloud facturent souvent à l’heure ; pour la production ou un usage en équipe, évaluez des services managés comme Hugging Face Inference Endpoints ou les API propres de Stability. Ils sont payants mais réduisent la charge opérationnelle.


Dépannage et conseils de performance

Problèmes courants

  • Échec d’installation lié à torch ou à une incompatibilité CUDA. Vérifiez que votre roue PyTorch correspond à la version CUDA (pilote) du système ; utilisez l’installateur officiel PyTorch pour générer la commande pip correcte.
  • Téléchargement du modèle bloqué / 403. Assurez‑vous de vous être connecté à Hugging Face et d’avoir accepté la licence du modèle. Certains modèles requièrent Git LFS.
  • OOM (out of memory). Réduisez la résolution d’inférence, passez en demi‑précision (torch_dtype=torch.float16) ou activez xformers / l’attention économe en mémoire dans le WebUI.

Optimisation des performances

  • Installez xformers (si supporté) pour l’attention économe en mémoire.
  • Utilisez les indicateurs --precision full vs --precision fp16 selon la stabilité.
  • Si votre mémoire GPU est limitée, envisagez le offload CPU ou l’utilisation du format safetensors, souvent plus rapide et plus sûr.

Quoi de neuf avec Stable Diffusion 3.5 ?

La sortie de Stable Diffusion 3.5 apporte une foule d’améliorations et de nouvelles fonctionnalités qui renforcent encore les capacités de ce puissant modèle de génération d’images.

Qualité d’image améliorée et suivi de prompt

Stable Diffusion 3.5 offre des améliorations significatives de la qualité d’image, avec un meilleur photoréalisme, un éclairage et des détails plus aboutis. Il comprend également beaucoup mieux les prompts textuels complexes, produisant des images qui reflètent plus fidèlement la vision créative de l’utilisateur. Le rendu de texte a également été amélioré, rendant possible la génération d’images avec du texte lisible.

Nouveaux modèles : Large et Turbo

Stable Diffusion 3.5 est disponible en deux variantes principales :

  • Stable Diffusion 3.5 Large: c’est le modèle le plus performant, capable de produire des images de la plus haute qualité. Il nécessite un GPU avec au moins 16 GB de VRAM.
  • Stable Diffusion 3.5 Large Turbo: ce modèle est optimisé pour la vitesse et peut fonctionner sur des GPU avec seulement 8 GB de VRAM. Il génère des images beaucoup plus rapidement que le modèle Large, tout en maintenant un niveau de qualité élevé.

Optimisations et collaborations

Stability AI a collaboré avec NVIDIA et AMD pour optimiser les performances de Stable Diffusion 3.5 sur leurs matériels respectifs. Ces optimisations, incluant la prise en charge de TensorRT et du FP8 sur les GPU NVIDIA RTX, se traduisent par des temps de génération plus rapides et une réduction de l’utilisation mémoire, rendant Stable Diffusion accessible à un plus large éventail d’utilisateurs.

Comment exécuter Stable Diffusion sans GPU local

Si vous n’avez pas de GPU performant, utilisez CometAPI, qui propose une API cloud de Stable Diffusion pour la génération d’images, ainsi que d’autres API de génération d’images telles que GPT Image 1.5 API et Nano Banano Series API.

Conclusion

Stable Diffusion a fondamentalement changé notre manière de créer et d’interagir avec l’imagerie numérique. Sa nature open source, combinée à des capacités en constante expansion, a permis à une communauté mondiale de créateurs d’explorer de nouveaux horizons artistiques. Avec la sortie de Stable Diffusion 3.5, cet outil puissant devient encore plus accessible et polyvalent, offrant un aperçu d’un avenir où la seule limite à ce que nous pouvons créer est notre imagination. Que vous soyez un artiste chevronné, un développeur curieux, ou simplement quelqu’un qui souhaite expérimenter la puissance de l’IA, ce guide fournit les bases nécessaires pour démarrer avec Stable Diffusion et libérer votre potentiel créatif.

Pour commencer, créez des œuvres sur CometAPI dans le Playground. Assurez‑vous de vous être connecté afin d’obtenir votre clé API et commencez à créer dès aujourd’hui.

Prêt à commencer ? → Essai gratuit de Stable Diffusion via CometAPI !

Prêt à réduire vos coûts de développement IA de 20 % ?

Démarrez gratuitement en quelques minutes. Crédits d'essai offerts. Aucune carte bancaire requise.

En savoir plus