So laden Sie Stable Diffusion herunter — eine Schritt-für-Schritt-Anleitung

CometAPI
AnnaJan 17, 2026
So laden Sie Stable Diffusion herunter — eine Schritt-für-Schritt-Anleitung

Stable Diffusion ist weiterhin die am weitesten verbreitete Open-Source-Familie von Text-zu-Bild-Modellen. Stability AI entwickelt kontinuierlich weiter (insbesondere durch die Veröffentlichung der Stable-Diffusion-3-Serie und Verbesserungen an SDXL). Mit der jüngsten Einführung von Stable Diffusion 3.5 haben sich die Möglichkeiten dieser Technologie weiter vergrößert: Sie bietet eine verbesserte Bildqualität, ein besseres Prompt-Verständnis und flexiblere Anwendungen. Dieser Leitfaden bietet einen umfassenden Überblick über Stable Diffusion – von der inneren Funktionsweise bis zur Schritt-für-Schritt-Installation – und hilft Ihnen, das kreative Potenzial dieser bahnbrechenden KI zu nutzen.

CometAPI, bietet eine Cloud-API von Stable Diffusion zur Bildgenerierung.

Was ist Stable Diffusion?

Stable Diffusion ist ein Deep-Learning-Modell, das Bilder aus Textbeschreibungen generiert – eine Technologie, die als Text-zu-Bild-Synthese bekannt ist. Anders als viele andere KI-Bildgeneratoren ist Stable Diffusion Open Source, sodass jeder die Technologie nutzen, modifizieren und darauf aufbauen kann.

Das Modell wurde auf einem riesigen Datensatz aus Bildern und den zugehörigen Textbeschreibungen trainiert und kann dadurch die komplexen Beziehungen zwischen Wörtern und visuellen Konzepten erlernen. Wenn Sie einen Text-Prompt angeben, nutzt Stable Diffusion dieses erlernte Wissen, um ein einzigartiges Bild zu erzeugen, das Ihrer Beschreibung entspricht. Der erreichbare Detailgrad und Realismus ist bemerkenswert und reicht von fotorealistischen Bildern bis zu fantastischen Illustrationen in einer großen Bandbreite von Stilen.

Fähigkeiten über Text-zu-Bild hinaus

Auch wenn die Hauptfunktion die Generierung von Bildern aus Text ist, gehen die Fähigkeiten von Stable Diffusion weit über dieses Kernfeature hinaus. Seine Vielseitigkeit macht es zu einem umfassenden Werkzeug für viele kreative Aufgaben:

  • Bild-zu-Bild (Image-to-Image): Sie können ein bestehendes Bild und einen Text-Prompt angeben, um das Modell bei der Transformation des Originalbildes zu leiten. Ideal für künstlerische Stilisierung, Konzept-Exploration und kreatives Experimentieren.
  • Inpainting und Outpainting: Mit Stable Diffusion lassen sich Teile eines Bildes gezielt verändern (Inpainting) oder das Bild über seine ursprünglichen Grenzen hinaus erweitern (Outpainting). Äußerst nützlich für Fotorestaurierung, Objektentfernung und das Erweitern der Leinwand.
  • Videoerstellung: Mit aktuellen Fortschritten lässt sich Stable Diffusion nun auch für Videos und Animationen einsetzen – neue Möglichkeiten für dynamisches visuelles Storytelling.
  • ControlNets: Zusätzliche Modelle, die eine präzisere Steuerung des Generierungsprozesses ermöglichen, etwa durch das Vorgaben von Posen, Tiefenkarten und anderen Strukturelementen.

Open Source und Zugänglichkeit

Ein besonders bedeutender Aspekt von Stable Diffusion ist seine Open-Source-Natur. Code und Modellgewichte sind öffentlich verfügbar, sodass Sie es auf Ihrem eigenen Computer ausführen können – entsprechende Hardware vorausgesetzt. Diese Zugänglichkeit unterscheidet es von vielen proprietären Diensten und ist ein Schlüssel für die weite Verbreitung. Die lokale Ausführung gibt Nutzerinnen und Nutzern volle kreative Freiheit und Kontrolle über ihre Arbeit – ohne Inhaltsbeschränkungen oder Servicegebühren mancher Online-Plattformen.

Wie funktioniert Stable Diffusion?

Der latente Ansatz reduziert Speicher- und Rechenaufwand gegenüber Diffusion im Pixelraum drastisch – so wurde Stable Diffusion auf Consumer-GPUs praktisch nutzbar. Varianten wie SDXL und die 3.x-Familie verbessern die Abbildung mehrerer Motive, die Auflösung und die Prompt-Verarbeitung; neue Releases erscheinen regelmäßig von Stability und der Community.

Die Schlüsselkomponenten: VAE, U-Net und Text-Encoder

Stable Diffusion besteht aus drei Hauptkomponenten, die zusammenarbeiten, um Bilder zu erzeugen:

Variational Autoencoder (VAE): Der VAE komprimiert hochauflösende Trainingsbilder in eine kleinere latente Repräsentation und dekomprimiert die generierten Latenzen wieder zu einem Bild in voller Auflösung.

U-Net: Das Herz des Modells – ein neuronales Netz, das im latenten Raum arbeitet. Der U-Net wird darauf trainiert, das während des Diffusionsprozesses hinzugefügte Rauschen vorherzusagen und zu entfernen. Er nimmt die verrauschte latente Repräsentation und den Text-Prompt als Eingabe und gibt eine entrauschte Latenz aus.

Text Encoder: Der Text-Encoder transformiert Ihren Prompt in eine numerische Repräsentation, die der U-Net verstehen kann. Stable Diffusion verwendet typischerweise einen vortrainierten Text-Encoder namens CLIP (Contrastive Language-Image Pre-Training), der auf einem großen Datensatz aus Bildern und ihren Bildunterschriften trainiert wurde. CLIP erfasst die semantische Bedeutung von Text sehr effektiv und übersetzt sie in ein Format, das den Bildgenerierungsprozess steuert.

Der Entrauschungsprozess

Der Bildgenerierungsprozess in Stable Diffusion lässt sich wie folgt zusammenfassen:

  1. Text-Encoding: Ihr Text-Prompt wird durch den Text-Encoder (CLIP) geleitet, um ein Text-Embedding zu erzeugen.
  2. Zufallsrauschen erzeugen: In der latenten Darstellung wird ein zufälliges Rauschbild erzeugt.
  3. Denoising-Schleife: Der U-Net entrauscht das Rauschbild iterativ, gesteuert vom Text-Embedding. In jedem Schritt sagt der U-Net das Rauschen in der latenten Darstellung voraus und subtrahiert es, wodurch das Bild schrittweise verfeinert und dem Prompt angepasst wird.
  4. Bild-Decoding: Nach Abschluss des Entrauschens wird die finale latente Repräsentation durch den Decoder des VAE geleitet, um das endgültige hochauflösende Bild zu erzeugen.

Welche Hardware und Software brauche ich?

Typische Hardware-Empfehlungen

  • GPU: NVIDIA mit CUDA-Unterstützung wird dringend empfohlen. Für moderne, flüssige Nutzung sind ≥8 GB VRAM für moderate Auflösungen sinnvoll; 12–24 GB sorgen für deutlich mehr Komfort bei hohen Auflösungen oder Mixed-Precision-Modellen. Kleine Experimente sind mit weniger VRAM und Optimierungen möglich, jedoch mit Einschränkungen bei Leistung und maximaler Bildgröße.
  • CPU / RAM: Ein moderner Multi-Core-CPU und ≥16 GB RAM sind eine praktikable Basis.
  • Speicher: SSD (bevorzugt NVMe) und 20–50 GB freier Platz für Modelle, Caches und Zusatzdateien.
  • OS: Linux (Ubuntu-Varianten) ist für fortgeschrittene Nutzer am bequemsten; Windows 10/11 wird für GUI-Pakete vollständig unterstützt; Docker eignet sich für Server.

Software-Voraussetzungen

  • Python 3.10+ oder Conda-Umgebung.
  • CUDA Toolkit / NVIDIA-Treiber für Ihre GPU und passendes PyTorch-Wheel (außer bei CPU-only, was sehr langsam ist).
  • Git, Git LFS (für manche Modelldownloads) und optional ein Hugging-Face-Konto für Modelle mit Lizenzakzeptanz.

Important—Lizenz & Sicherheit: Viele Stable-Diffusion-Checkpoints sind unter der Community-Lizenz von Stability AI oder spezifischen Modelllizenzen verfügbar und erfordern die Zustimmung vor dem Download. Modelle auf Hugging Face verlangen oft, dass Sie sich anmelden und die Bedingungen ausdrücklich akzeptieren; automatisierte Downloads schlagen ohne diese Zustimmung fehl.


Wie installiere ich Stable Diffusion (Schritt-für-Schritt-Anleitung)?

Im Folgenden drei praktische Installationspfade. Wählen Sie den Weg, der zu Ihren Anforderungen passt:

  • Pfad A — Vollständige GUI: AUTOMATIC1111 Stable Diffusion WebUI (am besten für interaktive Nutzung, viele Community-Plugins).
  • Pfad B — Programmatisch: Hugging Face diffusers-Pipeline (ideal für Integration und Scripting).
  • Pfad C — Cloud / Docker: Verwenden Sie eine Cloud-VM oder einen Container, wenn Ihnen lokale GPU-Ressourcen fehlen.

Wie lade ich Modellgewichte herunter und akzeptiere Lizenzen?

Modelldateien (Gewichte) für Stable Diffusion werden auf mehreren Wegen verbreitet:

  1. Offizielle Veröffentlichungen von Stability AI — Stability veröffentlicht Kernmodelle und kündigt große Releases (3.x, SDXL etc.) an. Diese Modelle sind häufig auf der Website von Stability und auf Hugging Face erhältlich.
  2. Hugging-Face-Modelcards — Viele Community- und offizielle Checkpoints sind auf Hugging Face gehostet. Für die meisten veröffentlichten SD-Checkpoints müssen Sie sich anmelden und die Modelllizenz akzeptieren. Die diffusers-API respektiert diesen Ablauf.
  3. Community-Hubs (Civitai, GitHub usw.) — Hier finden sich Community-Checkpoints, Embeddings und LoRAs; prüfen Sie jeweils die Lizenz.

Praktische Schritte zum Download:

  • Erstellen Sie bei Bedarf ein Hugging-Face-Konto.
  • Besuchen Sie die Modellseite (zum Beispiel stabilityai/stable-diffusion-3-5) und akzeptieren Sie die Lizenz.
  • Verwenden Sie huggingface-cli oder den Modelldownload-Dialog der WebUI. Für Git-LFS-gestützte Modelle git lfs installieren und gemäß Anleitung git clone ausführen.

Wie installiere ich die AUTOMATIC1111 WebUI unter Windows oder Linux?

Die WebUI von AUTOMATIC1111 ist eine beliebte, aktiv gepflegte GUI mit vielen Erweiterungen und Konfigurationsoptionen. Das Repository bietet Release Notes und einen einfachen Launcher.

1) Vorbereitung (Windows)

  • Installieren Sie den neuesten NVIDIA-Treiber für Ihre GPU.
  • Installieren Sie Git for Windows.
  • Wenn Sie Conda bevorzugen: Miniconda installieren.

2) Klonen und starten (Windows)

Öffnen Sie PowerShell oder Eingabeaufforderung und führen Sie aus:

# clone the WebUI
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# On Windows, the provided batch scripts will handle dependencies.
# Use the following to fetch everything and launch:
.\webui-user.bat
# or, in older releases:
# .\run.bat

Das Skript installiert Python-Pakete, lädt benötigte Komponenten herunter und öffnet die WebUI standardmäßig unter http://127.0.0.1:7860. Falls das Projekt nach einer Modelldatei fragt, siehe den Schritt „Modell-Download“ unten.

3) Klonen und starten (Linux)

Empfehlung: Erstellen und aktivieren Sie eine virtualenv- oder Conda-Umgebung.

# system prerequisites: Python3, git, wget (example: Ubuntu)
sudo apt update && sudo apt install -y git python3-venv

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# Create a venv and activate
python3 -m venv venv
source venv/bin/activate

# Launch (the launcher will install requirements)
python launch.py

Unter Linux müssen Sie oft vor dem Start das passende CUDA-fähige PyTorch installieren, um GPU-Beschleunigung sicherzustellen.

Wo Modellgewichte ablegen: Legen Sie .ckpt-, .safetensors- oder SDXL-Dateien in models/Stable-diffusion/ ab (Ordner ggf. anlegen). Die WebUI erkennt Gewichte automatisch.


Wie installiere ich Stable Diffusion mit Hugging Face Diffusers ?

Dieser Weg eignet sich am besten, wenn Sie eine programmatische, skriptfähige Pipeline wünschen oder die Generierung in eine Anwendung integrieren.

1) Python-Pakete installieren

Erstellen und aktivieren Sie eine virtuelle Umgebung und installieren Sie die benötigten Pakete:

python -m venv sdenv
source sdenv/bin/activate
pip install --upgrade pip
# Core packages (example - adjust CUDA wheel for your system per PyTorch's site)
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118
pip install diffusers transformers accelerate safetensors transformers[torch] huggingface-hub

Tipp: Installieren Sie das korrekte PyTorch-Wheel für Ihre CUDA-Version über die offizielle PyTorch-Installationsseite. Die Dokumentation von diffusers listet kompatible Paketkombinationen auf.

2) Authentifizieren und Modelle herunterladen (Hugging Face)

Viele Stable-Diffusion-Checkpoints auf Hugging Face erfordern, dass Sie angemeldet sind und eine Lizenz akzeptiert haben. Im Terminal:

pip install huggingface_hub
huggingface-cli login
# you will be prompted to paste your token (get it from your Hugging Face account settings)

Ein Modell programmatisch laden (Beispiel für einen auf Hugging Face gehosteten Checkpoint):

from diffusers import StableDiffusionPipeline
import torch

model_id = "stabilityai/stable-diffusion-3-5"  # example; replace with the model you agreed to
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16, use_safetensors=True)
pipe = pipe.to("cuda")

image = pipe("A professional photograph of a mountain at sunrise", num_inference_steps=25).images[0]
image.save("output.png")

Wenn ein Modell in älteren Versionen use_auth_token=True verlangt, geben Sie use_auth_token=HUGGINGFACE_TOKEN an oder stellen Sie sicher, dass huggingface-cli login ausgeführt wurde. Konsultieren Sie stets die Modelcard für Lizenzhinweise.


Wie nutze ich eine Cloud-Instanz oder Docker?

Wenn Ihnen eine geeignete lokale GPU fehlt, verwenden Sie eine Cloud-VM (AWS, GCP, Azure) mit NVIDIA-GPU oder eine spezialisierte KI-Instanz. Alternativ veröffentlichen viele WebUI-Repos Dockerfiles oder Community-Docker-Images.

Ein einfaches Docker-Beispiel:

# pull a community image (verify authenticity before use)
docker pull automatic1111/stable-diffusion-webui:latest

# run (bind port 7860)
docker run --gpus all -p 7860:7860 -v /local/models:/data/models automatic1111/stable-diffusion-webui:latest

Cloud-Anbieter rechnen oft stundenbasiert ab; für Produktion oder Teamnutzung prüfen Sie Managed Services wie Hugging Face Inference Endpoints oder die eigenen APIs von Stability. Diese sind kostenpflichtig, verringern aber den Betriebsaufwand.


Fehlerbehebung und Performance-Tipps

Häufige Probleme

  • Installation schlägt bei torch oder CUDA-Mismatch fehl. Stellen Sie sicher, dass Ihr PyTorch-Wheel zur CUDA-(Treiber-)Version des Systems passt; verwenden Sie den offiziellen PyTorch-Installer, um den korrekten pip-Befehl zu generieren.
  • Modelldownload blockiert / 403. Stellen Sie sicher, dass Sie bei Hugging Face angemeldet sind und die Modelllizenz akzeptiert haben. Einige Modelle erfordern Git LFS.
  • OOM (Out of memory). Reduzieren Sie die Inferenzauflösung, wechseln Sie zu Halbpräzision (torch_dtype=torch.float16) oder aktivieren Sie xformers / Memory-Efficient Attention in der WebUI.

Performance-Tuning

  • Installieren Sie xformers (falls unterstützt) für speichereffiziente Attention.
  • Verwenden Sie je nach Stabilität die Flags --precision full vs. --precision fp16.
  • Bei begrenztem GPU-Speicher erwägen Sie CPU-Offload oder die Nutzung des Formats safetensors, das schneller und sicherer sein kann.

Was ist neu bei Stable Diffusion 3.5?

Die Veröffentlichung von Stable Diffusion 3.5 bringt zahlreiche Verbesserungen und neue Funktionen, die die Fähigkeiten dieses leistungsstarken Bildgenerierungsmodells weiter steigern.

Verbesserte Bildqualität und Prompt-Treue

Stable Diffusion 3.5 bietet signifikante Verbesserungen bei der Bildqualität mit besserem Fotorealismus, Lichtführung und Details. Zudem versteht es komplexe Text-Prompts deutlich besser, wodurch Bilder entstehen, die die kreative Vision der Nutzer genauer widerspiegeln. Auch die Textrendering-Fähigkeiten wurden verbessert, sodass sich Bilder mit lesbarem Text erzeugen lassen.

Neue Modelle: Large und Turbo

Stable Diffusion 3.5 ist in zwei Hauptvarianten verfügbar:

  • Stable Diffusion 3.5 Large: Dies ist das leistungsstärkste Modell und erzeugt die höchste Bildqualität. Es benötigt eine GPU mit mindestens 16GB VRAM.
  • Stable Diffusion 3.5 Large Turbo: Dieses Modell ist auf Geschwindigkeit optimiert und kann auf GPUs mit nur 8GB VRAM laufen. Es generiert Bilder deutlich schneller als das Large-Modell, bei weiterhin hoher Qualität.

Optimierungen und Kooperationen

Stability AI hat mit NVIDIA und AMD zusammengearbeitet, um die Performance von Stable Diffusion 3.5 auf deren Hardware zu optimieren. Diese Optimierungen – einschließlich Unterstützung für TensorRT und FP8 auf NVIDIA-RTX-GPUs – führen zu schnelleren Generierungszeiten und geringerem Speicherbedarf und machen Stable Diffusion für eine breitere Nutzerschaft zugänglicher.

Wie kann ich Stable Diffusion ohne lokale GPU ausführen

Wenn Ihnen eine leistungsfähige GPU fehlt, nutzen Sie CometAPI. Es bietet eine Cloud-API von Stable Diffusion zur Bildgenerierung sowie weitere Bildgenerierungs-APIs wie die GPT Image 1.5 API und die Nano Banano Series API.

Fazit

Stable Diffusion hat die Art und Weise, wie wir digitale Bilder erstellen und mit ihnen interagieren, grundlegend verändert. Die Open-Source-Natur in Kombination mit stetig wachsenden Fähigkeiten hat eine globale Community von Kreativen befähigt, neue künstlerische Grenzen zu erkunden. Mit der Veröffentlichung von Stable Diffusion 3.5 ist dieses leistungsstarke Werkzeug noch zugänglicher und vielseitiger geworden – ein Blick in eine Zukunft, in der nur noch unsere Vorstellungskraft die Grenzen setzt. Ob erfahrene Künstler, neugierige Entwickler oder einfach jemand, der mit der Kraft der KI experimentieren möchte – dieser Leitfaden bildet die Basis, um mit Stable Diffusion zu starten und Ihr kreatives Potenzial freizusetzen.

Zum Einstieg: Erstellen Sie Kunstwerke auf CometAPI im Playground. Stellen Sie sicher, dass Sie sich angemeldet haben, um Ihren API-Schlüssel zu erhalten, und starten Sie noch heute.

Bereit loszulegen? → Kostenlose Testversion von Stable Diffusion über CometAPI!

Mehr lesen

500+ Modelle in einer API

Bis zu 20% Rabatt