Cómo descargar Stable Diffusion — Una guía paso a paso

CometAPI
AnnaJan 17, 2026
Cómo descargar Stable Diffusion — Una guía paso a paso

Stable Diffusion sigue siendo la familia de modelos de texto a imagen de código abierto más utilizada. Stability AI ha continuado iterando (en especial con la publicación de la serie Stable Diffusion 3 y las mejoras de SDXL). Con el lanzamiento reciente de Stable Diffusion 3.5, las capacidades de esta tecnología se han ampliado aún más, ofreciendo mayor calidad de imagen, mejor comprensión de prompts y aplicaciones más flexibles. Esta guía ofrece una visión general completa de Stable Diffusion, desde su funcionamiento interno hasta una guía de instalación paso a paso, para que puedas aprovechar el potencial creativo de esta IA revolucionaria.

CometAPI, ofrece una API en la nube de Stable Diffusion para generación de imágenes.

¿Qué es Stable Diffusion?

Stable Diffusion es un modelo de aprendizaje profundo que genera imágenes a partir de descripciones de texto, una tecnología conocida como síntesis texto‑a‑imagen. A diferencia de muchos otros generadores de imágenes con IA, Stable Diffusion es de código abierto, lo que permite a cualquiera usarlo, modificarlo y construir sobre esta tecnología.

El modelo se entrena con un conjunto de datos masivo de imágenes y sus descripciones de texto correspondientes, lo que le permite aprender las complejas relaciones entre palabras y conceptos visuales. Cuando proporcionas un prompt de texto, Stable Diffusion utiliza ese conocimiento para crear una imagen única que coincida con tu descripción. El nivel de detalle y realismo que puede lograrse es notable, abarcando desde imágenes fotorrealistas hasta ilustraciones fantásticas en una amplia variedad de estilos.

Capacidades más allá de texto a imagen

Aunque su función principal es generar imágenes a partir de texto, las capacidades de Stable Diffusion van mucho más allá de esta característica central. Su versatilidad lo convierte en una herramienta integral para una amplia gama de tareas creativas:

  • Image-to-Image: Puedes proporcionar una imagen existente y un prompt de texto para guiar al modelo en la transformación de la imagen original. Esta función es ideal para estilización artística, exploración de conceptos y experimentación creativa.
  • Inpainting y Outpainting: Stable Diffusion te permite modificar selectivamente partes de una imagen (inpainting) o extender la imagen más allá de sus bordes originales (outpainting). Esto es muy útil para restauración fotográfica, eliminación de objetos y ampliación del lienzo de tus creaciones.
  • Creación de video: Con avances recientes, Stable Diffusion puede utilizarse para crear videos y animaciones, abriendo nuevas posibilidades para la narración visual dinámica.
  • ControlNets: Son modelos adicionales que proporcionan un control más preciso sobre el proceso de generación de imágenes, permitiéndote especificar poses, mapas de profundidad y otros elementos estructurales.

Código abierto y accesibilidad

Uno de los aspectos más significativos de Stable Diffusion es su naturaleza de código abierto. El código y los pesos del modelo están disponibles públicamente, lo que significa que puedes ejecutarlo en tu propio ordenador, siempre que cuentes con el hardware necesario. Este nivel de accesibilidad lo diferencia de muchos servicios propietarios de generación de imágenes con IA y ha sido un factor clave en su adopción generalizada. La capacidad de ejecutar el modelo localmente brinda a los usuarios libertad creativa y control total sobre su trabajo, sin las restricciones de contenido ni las tarifas de algunos servicios en línea.

¿Cómo funciona Stable Diffusion?

El enfoque latente reduce drásticamente el consumo de memoria y cómputo frente a la difusión en el espacio de píxeles, lo que hizo que Stable Diffusion fuera práctico en GPUs de consumo. Variantes como SDXL y la familia 3.x mejoran la fidelidad con múltiples sujetos, la resolución y el manejo de prompts; Stability y la comunidad publican nuevas versiones periódicamente.

Componentes clave: VAE, U-Net y codificador de texto

Stable Diffusion está compuesto por tres componentes principales que trabajan juntos para generar imágenes:

Autoencoder variacional (VAE): El VAE se encarga de comprimir las imágenes de alta resolución de los datos de entrenamiento en una representación de espacio latente más pequeña y de descomprimir la representación latente generada de vuelta a una imagen de resolución completa.

U-Net: Es el núcleo del modelo, una red neuronal que opera en el espacio latente. El U‑Net se entrena para predecir y eliminar el ruido añadido durante el proceso de difusión. Toma como entrada la representación latente ruidosa y el prompt de texto, y produce una representación latente sin ruido.

Codificador de texto: El codificador de texto transforma tu prompt en una representación numérica que el U‑Net pueda entender. Stable Diffusion suele usar un codificador de texto preentrenado llamado CLIP (Contrastive Language‑Image Pre‑Training), entrenado con un conjunto masivo de imágenes y sus descripciones. CLIP es muy eficaz capturando el significado semántico del texto y traduciéndolo a un formato que puede guiar el proceso de generación.

El proceso de eliminación de ruido

El proceso de generación de imágenes en Stable Diffusion se puede resumir así:

  1. Codificación de texto: Tu prompt se pasa por el codificador de texto (CLIP) para crear un embedding de texto.
  2. Generación de ruido aleatorio: Se genera una imagen de ruido aleatorio en el espacio latente.
  3. Bucle de eliminación de ruido: El U‑Net elimina iterativamente el ruido de la imagen aleatoria, guiado por el embedding de texto. En cada paso, el U‑Net predice el ruido en la imagen latente y lo sustrae, refinando gradualmente la imagen para que coincida con el prompt.
  4. Decodificación de la imagen: Una vez completado el proceso de eliminación de ruido, la representación latente final se pasa por el decodificador del VAE para generar la imagen final de alta resolución.

¿Qué hardware y software necesito?

Recomendaciones de hardware típicas

  • GPU: Se recomienda encarecidamente NVIDIA con soporte CUDA. Para un uso moderno y fluido apunta a ≥8 GB VRAM para resoluciones modestas; 12–24 GB brindan una experiencia mucho más cómoda para alta resolución o modelos de precisión mixta. Es posible hacer experimentos muy pequeños con tarjetas de menor VRAM mediante optimizaciones, pero el rendimiento y el tamaño máximo de imagen serán limitados.
  • CPU / RAM: Cualquier CPU multinúcleo moderna y ≥16 GB RAM es una base práctica.
  • Almacenamiento: SSD (mejor NVMe) y 20–50 GB de espacio libre para almacenar modelos, cachés y archivos auxiliares.
  • SO: Linux (variantes de Ubuntu) es lo más cómodo para usuarios avanzados; Windows 10/11 está totalmente soportado para paquetes con GUI; Docker funciona para servidores.

Requisitos de software

  • Python 3.10+ o entorno Conda.
  • Toolkit CUDA / controlador NVIDIA para tu GPU y la rueda de PyTorch correspondiente (a menos que planees CPU‑only, que es muy lento).
  • Git, Git LFS (para algunas descargas de modelos) y opcionalmente una cuenta de Hugging Face para descargas de modelos que requieran aceptar una licencia.

Importante—licencia y seguridad: Muchos checkpoints de Stable Diffusion están disponibles bajo la licencia comunitaria de Stability AI u otras licencias específicas de modelo y requieren aceptación antes de la descarga. Los modelos alojados en Hugging Face a menudo requieren iniciar sesión en una cuenta de Hugging Face y aceptar explícitamente los términos; las descargas automatizadas fallarán sin esa aprobación.


¿Cómo instalo Stable Diffusion (guía paso a paso)?

A continuación hay tres rutas de instalación prácticas. Elige la opción que mejor se ajuste a tus necesidades:

  • Ruta A — GUI completa: AUTOMATIC1111 Stable Diffusion WebUI (ideal para uso interactivo, muchos plugins de la comunidad).
  • Ruta B — Programática: Pipeline de diffusers de Hugging Face (ideal para integración y scripting).
  • Ruta C — Nube / Docker: Usa una VM en la nube o contenedor si no tienes recursos GPU locales.

¿Cómo descargo los pesos del modelo y acepto licencias?

Los pesos de los modelos de Stable Diffusion se distribuyen de varias formas:

  1. Publicaciones oficiales de Stability AI — Stability publica los modelos principales y anuncia lanzamientos importantes (3.x, SDXL, etc.). Estos modelos suelen estar disponibles en el sitio web de Stability y en Hugging Face.
  2. Model cards de Hugging Face — Muchos checkpoints, tanto de la comunidad como oficiales, están alojados en Hugging Face. Para la mayoría de los checkpoints de SD publicados debes iniciar sesión y aceptar la licencia del modelo antes de descargar. La API de diffusers respeta este flujo.
  3. Hubs de la comunidad (Civitai, GitHub, etc.) — Alojan checkpoints de la comunidad, embeddings y LoRAs; revisa la licencia de cada recurso.

Pasos prácticos para descargar:

  • Crea una cuenta de Hugging Face si es necesario.
  • Visita la página del modelo (por ejemplo stabilityai/stable-diffusion-3-5) y acepta la licencia.
  • Usa huggingface-cli o el cuadro de diálogo de descarga de modelos de la WebUI. Para modelos respaldados por Git LFS, instala git lfs y realiza git clone según las instrucciones.

¿Cómo instalo la WebUI de AUTOMATIC1111 en Windows o Linux?

La WebUI de AUTOMATIC1111 es una GUI popular y activamente mantenida con muchas extensiones y opciones de configuración. El repositorio ofrece notas de versión y un lanzador sencillo.

1) Preparación (Windows)

  • Instala el último controlador NVIDIA para tu GPU.
  • Instala Git para Windows.
  • Si prefieres Conda: instala Miniconda.

2) Clonar y ejecutar (Windows)

Abre PowerShell o el Símbolo del sistema y ejecuta:

# clone the WebUI
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# On Windows, the provided batch scripts will handle dependencies.
# Use the following to fetch everything and launch:
.\webui-user.bat
# or, in older releases:
# .\run.bat

El script instalará paquetes de Python, descargará los componentes necesarios y abrirá la interfaz web en http://127.0.0.1:7860 por defecto. Si el proyecto solicita un archivo de modelo, consulta el paso de descarga de modelos a continuación.

3) Clonar y ejecutar (Linux)

Recomendado: crear un virtualenv o entorno conda.

# system prerequisites: Python3, git, wget (example: Ubuntu)
sudo apt update && sudo apt install -y git python3-venv

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# Create a venv and activate
python3 -m venv venv
source venv/bin/activate

# Launch (the launcher will install requirements)
python launch.py

En Linux a menudo necesitarás instalar previamente el PyTorch con soporte CUDA adecuado antes de lanzar para asegurar la aceleración por GPU.

Dónde colocar los pesos del modelo: Pon archivos de modelo .ckpt, .safetensors o archivos de SDXL en models/Stable-diffusion/ (crea la carpeta si es necesario). La WebUI detecta los pesos automáticamente.


¿Cómo instalo Stable Diffusion con Hugging Face Diffusers?

Esta ruta es ideal si quieres un pipeline programático y scriptable o si vas a integrar la generación en una aplicación.

1) Instalar paquetes de Python

Crea y activa un entorno virtual, luego instala los paquetes requeridos:

python -m venv sdenv
source sdenv/bin/activate
pip install --upgrade pip
# Core packages (example - adjust CUDA wheel for your system per PyTorch's site)
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118
pip install diffusers transformers accelerate safetensors transformers[torch] huggingface-hub

Consejo: instala la rueda de PyTorch correcta para tu versión de CUDA usando la página oficial de instalación de PyTorch. La documentación de diffusers enumera conjuntos de paquetes compatibles.

2) Autenticarse y descargar modelos (Hugging Face)

Muchos checkpoints de Stable Diffusion en Hugging Face requieren que inicies sesión y aceptes una licencia. En una terminal:

pip install huggingface_hub
huggingface-cli login
# you will be prompted to paste your token (get it from your Hugging Face account settings)

Para cargar programáticamente un modelo (ejemplo para un checkpoint alojado en Hugging Face):

from diffusers import StableDiffusionPipeline
import torch

model_id = "stabilityai/stable-diffusion-3-5"  # example; replace with the model you agreed to
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16, use_safetensors=True)
pipe = pipe.to("cuda")

image = pipe("A professional photograph of a mountain at sunrise", num_inference_steps=25).images[0]
image.save("output.png")

Si un modelo requiere use_auth_token=True en versiones antiguas, proporciona use_auth_token=HUGGINGFACE_TOKEN o asegúrate de haber ejecutado huggingface-cli login. Consulta siempre la model card para instrucciones de licencia.


¿Cómo uso una instancia en la nube o Docker?

Si no cuentas con una GPU local adecuada, usa una VM en la nube (AWS, GCP, Azure) con una GPU NVIDIA o una instancia de IA especializada. Alternativamente, muchos repos de WebUI publican Dockerfiles o imágenes Docker de la comunidad.

Un patrón simple con Docker (ejemplo):

# pull a community image (verify authenticity before use)
docker pull automatic1111/stable-diffusion-webui:latest

# run (bind port 7860)
docker run --gpus all -p 7860:7860 -v /local/models:/data/models automatic1111/stable-diffusion-webui:latest

Los proveedores de la nube suelen cobrar por hora; para producción o uso en equipo, evalúa servicios gestionados como Hugging Face Inference Endpoints o las propias APIs de Stability. Son de pago, pero reducen la carga operativa.


Solución de problemas y consejos de rendimiento

Problemas comunes

  • Fallo de instalación por torch o desajuste de CUDA. Verifica que tu rueda de PyTorch coincida con la versión de CUDA (controlador) del sistema; usa el instalador oficial de PyTorch para generar el comando pip correcto.
  • Descarga de modelo bloqueada / 403. Asegúrate de haber iniciado sesión en Hugging Face y aceptado la licencia del modelo. Algunos modelos requieren Git LFS.
  • OOM (falta de memoria). Reduce la resolución de inferencia, cambia a media precisión (torch_dtype=torch.float16) o habilita xformers / atención eficiente en memoria en la WebUI.

Optimización del rendimiento

  • Instala xformers (si es compatible) para atención eficiente en memoria.
  • Usa flags --precision full vs --precision fp16 según la estabilidad.
  • Si tienes memoria GPU limitada, considera CPU offload o usar el formato safetensors, que puede ser más rápido y seguro.

¿Qué hay de nuevo con Stable Diffusion 3.5?

El lanzamiento de Stable Diffusion 3.5 trae numerosas mejoras y nuevas funciones que potencian aún más las capacidades de este potente modelo de generación de imágenes.

Mayor calidad de imagen y seguimiento de prompts

Stable Diffusion 3.5 presenta mejoras significativas en la calidad de imagen, con mejor fotorrealismo, iluminación y detalle. También comprende mucho mejor los prompts complejos, dando como resultado imágenes que reflejan con mayor precisión la visión creativa del usuario. La representación de texto también ha mejorado, lo que permite generar imágenes con texto legible.

Nuevos modelos: Large y Turbo

Stable Diffusion 3.5 está disponible en dos variantes principales:

  • Stable Diffusion 3.5 Large: Se trata del modelo más potente, capaz de producir imágenes de la más alta calidad. Requiere una GPU con al menos 16GB de VRAM.
  • Stable Diffusion 3.5 Large Turbo: Este modelo está optimizado para velocidad y puede ejecutarse en GPUs con tan solo 8GB de VRAM. Genera imágenes mucho más rápido que el modelo Large, manteniendo un alto nivel de calidad.

Optimizaciones y colaboraciones

Stability AI ha colaborado con NVIDIA y AMD para optimizar el rendimiento de Stable Diffusion 3.5 en sus respectivos hardware. Estas optimizaciones, que incluyen soporte para TensorRT y FP8 en GPUs NVIDIA RTX, resultan en tiempos de generación más rápidos y menor uso de memoria, haciendo que Stable Diffusion sea más accesible para un abanico más amplio de usuarios.

¿Cómo puedo ejecutar Stable Diffusion sin GPU local?

Si te falta una GPU capaz, utiliza CometAPI, que ofrece una API en la nube de Stable Diffusion para generación de imágenes y otras APIs de generación de imágenes como GPT Image 1.5 API y Nano Banano Series API.

Conclusión

Stable Diffusion ha cambiado fundamentalmente la forma en que creamos e interactuamos con las imágenes digitales. Su naturaleza de código abierto, combinada con sus capacidades en constante expansión, ha empoderado a una comunidad global de creadores para explorar nuevas fronteras artísticas. Con el lanzamiento de Stable Diffusion 3.5, esta poderosa herramienta se ha vuelto aún más accesible y versátil, ofreciendo un vistazo a un futuro donde el único límite de lo que podemos crear es nuestra propia imaginación. Ya seas un artista experimentado, un desarrollador curioso o simplemente alguien que quiere experimentar con el poder de la IA, esta guía proporciona la base que necesitas para empezar a usar Stable Diffusion y desbloquear tu potencial creativo.

Para comenzar, crea arte en CometAPI en el Playground. Asegúrate de haber iniciado sesión para obtener tu clave de API y empieza a construir hoy.

¿Listo para empezar? → Prueba gratis de Stable Diffusion vía CometAPI!

Leer Más

500+ Modelos en Una API

Hasta 20% de Descuento