Cómo descargar Stable Diffusion: una guía paso a paso

CometAPI
AnnaJan 17, 2026
Cómo descargar Stable Diffusion: una guía paso a paso

Stable Diffusion sigue siendo la familia de modelos de texto a imagen de código abierto más utilizada. Stability AI ha continuado iterando (en particular, publicando la serie Stable Diffusion 3 y mejoras de SDXL). Con el reciente lanzamiento de Stable Diffusion 3.5, las capacidades de esta tecnología se han ampliado aún más, ofreciendo una mejor calidad de imagen, una mejor comprensión de los prompts y aplicaciones más flexibles. Esta guía ofrece una visión general completa de Stable Diffusion, desde su funcionamiento interno hasta una guía de instalación paso a paso, para ayudarte a aprovechar el potencial creativo de esta innovadora IA.

CometAPI, proporciona una API en la nube de Stable Diffusion para la generación de imágenes.

¿Qué es Stable Diffusion?

Stable Diffusion es un modelo de aprendizaje profundo que genera imágenes a partir de descripciones de texto, una tecnología conocida como síntesis de texto a imagen. A diferencia de muchos otros generadores de imágenes con IA, Stable Diffusion es de código abierto, lo que permite a cualquiera usar, modificar y desarrollar esta tecnología.

El modelo se entrena con un conjunto de datos masivo de imágenes y sus correspondientes descripciones de texto, lo que le permite aprender las complejas relaciones entre palabras y conceptos visuales. Cuando proporcionas un prompt de texto, Stable Diffusion utiliza este conocimiento aprendido para crear una imagen única que coincide con tu descripción. El nivel de detalle y realismo que se puede lograr es notable, desde imágenes fotorrealistas hasta ilustraciones fantásticas en una amplia variedad de estilos.

Capacidades más allá del texto a imagen

Aunque su función principal es generar imágenes a partir de texto, las capacidades de Stable Diffusion van mucho más allá de esta función básica. Su versatilidad lo convierte en una herramienta integral para una amplia gama de tareas creativas:

  • Imagen a imagen: Puedes proporcionar una imagen existente y un prompt de texto para guiar al modelo en la transformación de la imagen original. Esta función es perfecta para estilización artística, exploración de conceptos y experimentación creativa.
  • Inpainting y Outpainting: Stable Diffusion te permite modificar selectivamente partes de una imagen (inpainting) o extender la imagen más allá de sus bordes originales (outpainting). Esto es increíblemente útil para restauración fotográfica, eliminación de objetos y ampliación del lienzo de tus creaciones.
  • Creación de video: Con los avances recientes, Stable Diffusion ahora también puede utilizarse para crear videos y animaciones, abriendo nuevas posibilidades para la narración visual dinámica.
  • ControlNets: Son modelos adicionales que proporcionan un control más preciso sobre el proceso de generación de imágenes, permitiéndote especificar poses, mapas de profundidad y otros elementos estructurales.

Código abierto y accesibilidad

Uno de los aspectos más significativos de Stable Diffusion es su naturaleza de código abierto. El código y los pesos del modelo están disponibles públicamente, lo que significa que puedes ejecutarlo en tu propio ordenador, siempre que dispongas del hardware necesario. Este nivel de accesibilidad lo distingue de muchos servicios propietarios de generación de imágenes con IA y ha sido un factor clave en su adopción generalizada. La posibilidad de ejecutar el modelo localmente ofrece a los usuarios total libertad creativa y control sobre su trabajo, sin las restricciones de contenido ni las tarifas de servicio asociadas con algunas plataformas en línea.

¿Cómo funciona Stable Diffusion?

El enfoque latente reduce drásticamente el costo de memoria y cómputo en comparación con la difusión en espacio de píxeles, y así es como Stable Diffusion se volvió práctico en GPU de consumo. Variantes como SDXL y la familia 3.x mejoran la fidelidad con múltiples sujetos, la resolución y el manejo de prompts; Stability y la comunidad publican nuevas versiones periódicamente.

Los componentes clave: VAE, U-Net y codificador de texto

Stable Diffusion se compone de tres componentes principales que trabajan juntos para generar imágenes:

Autoencoder variacional (VAE): El VAE se encarga de comprimir las imágenes de alta resolución de los datos de entrenamiento en una representación más pequeña en el espacio latente y de descomprimir la representación latente generada de nuevo en una imagen de resolución completa.

U-Net: Este es el núcleo del modelo, una red neuronal que opera en el espacio latente. La U-Net está entrenada para predecir y eliminar el ruido que se añadió durante el proceso de difusión. Toma como entrada la representación latente ruidosa y el prompt de texto, y produce una representación latente sin ruido.

Codificador de texto: El codificador de texto transforma tu prompt de texto en una representación numérica que la U-Net puede entender. Stable Diffusion normalmente utiliza un codificador de texto preentrenado llamado CLIP (Contrastive Language-Image Pre-Training), que ha sido entrenado con un vasto conjunto de datos de imágenes y sus subtítulos. CLIP es altamente eficaz para capturar el significado semántico del texto y traducirlo a un formato que pueda guiar el proceso de generación de imágenes.

El proceso de eliminación de ruido

El proceso de generación de imágenes en Stable Diffusion puede resumirse de la siguiente manera:

  1. Codificación de texto: Tu prompt de texto se pasa por el codificador de texto (CLIP) para crear una incrustación de texto.
  2. Generación de ruido aleatorio: Se genera una imagen de ruido aleatorio en el espacio latente.
  3. Bucle de eliminación de ruido: La U-Net elimina iterativamente el ruido de la imagen aleatoria, guiada por la incrustación de texto. En cada paso, la U-Net predice el ruido en la imagen latente y lo resta, refinando gradualmente la imagen para que coincida con el prompt.
  4. Decodificación de imagen: Una vez completado el proceso de eliminación de ruido, la representación latente final se pasa por el decodificador del VAE para generar la imagen final de alta resolución.

¿Qué hardware y software necesito?

Orientación típica de hardware

  • GPU: Se recomienda encarecidamente NVIDIA con compatibilidad CUDA. Para un uso moderno y fluido, apunta a ≥8 GB de VRAM para resoluciones modestas; 12–24 GB ofrecen una experiencia mucho más cómoda para alta resolución o modelos de precisión mixta. Son posibles experimentos muy pequeños en tarjetas con menos VRAM mediante optimizaciones, pero el rendimiento y el tamaño máximo de imagen serán limitados.
  • CPU / RAM: Cualquier CPU multinúcleo moderna y ≥16 GB de RAM es una base práctica.
  • Almacenamiento: SSD (preferiblemente NVMe) y 20–50 GB de espacio libre para almacenar modelos, cachés y archivos auxiliares.
  • SO: Linux (variantes de Ubuntu) es lo más conveniente para usuarios avanzados; Windows 10/11 es totalmente compatible para paquetes con GUI; Docker funciona para servidores.

Requisitos previos de software

  • Python 3.10+ o entorno Conda.
  • Toolkit de CUDA / controlador de NVIDIA para tu GPU y wheel de PyTorch correspondiente (a menos que planees usar solo CPU, lo cual es muy lento).
  • Git, Git LFS (para algunas descargas de modelos) y, opcionalmente, una cuenta de Hugging Face para descargas de modelos que requieren aceptación de licencia.

Importante—licencia y seguridad: Muchos checkpoints de Stable Diffusion están disponibles bajo la licencia comunitaria de Stability AI o licencias específicas del modelo, y requieren aceptación antes de la descarga. Los modelos alojados en Hugging Face suelen requerir que inicies sesión en una cuenta de Hugging Face y aceptes explícitamente los términos; las descargas automáticas fallarán sin esa aprobación.


¿Cómo instalo Stable Diffusion (guía paso a paso)?

A continuación se muestran tres rutas prácticas de instalación. Elige la que mejor se adapte a tus necesidades:

  • Ruta A — GUI completa: AUTOMATIC1111 Stable Diffusion WebUI (ideal para uso interactivo, con muchos plugins de la comunidad).
  • Ruta B — Programática: pipeline de Hugging Face diffusers (ideal para integración y scripting).
  • Ruta C — Nube / Docker: usa una VM en la nube o un contenedor si no dispones de recursos de GPU local.

¿Cómo descargo los pesos del modelo y acepto las licencias?

Los pesos del modelo de Stable Diffusion se distribuyen de varias maneras:

  1. Lanzamientos oficiales de Stability AI — Stability publica modelos base y anuncia lanzamientos importantes (3.x, SDXL, etc.). Estos modelos suelen estar disponibles en el sitio web de Stability y en Hugging Face.
  2. Tarjetas de modelo de Hugging Face — Muchos checkpoints oficiales y de la comunidad están alojados en Hugging Face. Para la mayoría de los checkpoints SD publicados, debes iniciar sesión y aceptar la licencia del modelo antes de descargarlos. La API de diffusers respeta este flujo.
  3. Hubs de la comunidad (Civitai, GitHub, etc.) — Alojan checkpoints, embeddings y LoRAs de la comunidad; revisa la licencia de cada recurso.

Pasos prácticos para descargar:

  • Crea una cuenta de Hugging Face si es necesario.
  • Visita la página del modelo (por ejemplo stabilityai/stable-diffusion-3-5) y acepta la licencia.
  • Usa huggingface-cli o el cuadro de diálogo de descarga de modelos de WebUI. Para modelos respaldados por Git LFS, instala git lfs y ejecuta git clone según las instrucciones.

¿Cómo instalo la WebUI de AUTOMATIC1111 en Windows o Linux?

La WebUI de AUTOMATIC1111 es una GUI popular y mantenida activamente, con muchas extensiones y opciones de configuración. El repositorio proporciona notas de versión y un iniciador sencillo.

1) Verificación previa (Windows)

  • Instala el controlador más reciente de NVIDIA para tu GPU.
  • Instala Git para Windows.
  • Si prefieres Conda: instala Miniconda.

2) Clonar y ejecutar (Windows)

Abre Powershell o Command Prompt y luego ejecuta:

# clone the WebUI
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# On Windows, the provided batch scripts will handle dependencies.
# Use the following to fetch everything and launch:
.\webui-user.bat
# or, in older releases:
# .\run.bat

El script instalará los paquetes de Python, descargará los componentes necesarios y abrirá la interfaz web en http://127.0.0.1:7860 de forma predeterminada. Si el proyecto solicita un archivo de modelo, consulta el paso de descarga del modelo más abajo.

3) Clonar y ejecutar (Linux)

Recomendado: crea un entorno virtual o un entorno conda.

# system prerequisites: Python3, git, wget (example: Ubuntu)
sudo apt update && sudo apt install -y git python3-venv

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# Create a venv and activate
python3 -m venv venv
source venv/bin/activate

# Launch (the launcher will install requirements)
python launch.py

En Linux, a menudo necesitarás instalar la versión adecuada de PyTorch con CUDA antes de iniciar para garantizar la aceleración por GPU.

Dónde colocar los pesos del modelo: Coloca los archivos .ckpt, .safetensors o de SDXL en models/Stable-diffusion/ (crea la carpeta si es necesario). La WebUI detecta los pesos automáticamente.


¿Cómo instalo Stable Diffusion con Hugging Face Diffusers ?

Esta ruta es la mejor si deseas un pipeline programático y automatizable, o si vas a integrar la generación en una aplicación.

1) Instalar paquetes de Python

Crea y activa un entorno virtual, luego instala los paquetes necesarios:

python -m venv sdenv
source sdenv/bin/activate
pip install --upgrade pip
# Core packages (example - adjust CUDA wheel for your system per PyTorch's site)
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118
pip install diffusers transformers accelerate safetensors transformers[torch] huggingface-hub

Consejo: instala la wheel correcta de PyTorch para tu versión de CUDA utilizando la página oficial de instalación de PyTorch. La documentación de diffusers enumera conjuntos de paquetes compatibles.

2) Autenticarse y descargar modelos (Hugging Face)

Muchos checkpoints de Stable Diffusion en Hugging Face requieren que inicies sesión y aceptes una licencia. En una terminal:

pip install huggingface_hub
huggingface-cli login
# you will be prompted to paste your token (get it from your Hugging Face account settings)

Para cargar un modelo de forma programática (ejemplo de un checkpoint alojado en Hugging Face):

from diffusers import StableDiffusionPipeline
import torch

model_id = "stabilityai/stable-diffusion-3-5"  # example; replace with the model you agreed to
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16, use_safetensors=True)
pipe = pipe.to("cuda")

image = pipe("A professional photograph of a mountain at sunrise", num_inference_steps=25).images[0]
image.save("output.png")

Si un modelo requiere use_auth_token=True en versiones anteriores, proporciona use_auth_token=HUGGINGFACE_TOKEN o asegúrate de haber ejecutado huggingface-cli login. Consulta siempre la tarjeta del modelo para ver las instrucciones de licencia.


¿Cómo uso una instancia en la nube o Docker?

Si no dispones de una GPU local adecuada, usa una VM en la nube (AWS, GCP, Azure) con una GPU NVIDIA o una instancia especializada en IA. Como alternativa, muchos repositorios de WebUI publican Dockerfiles o imágenes Docker de la comunidad.

Un patrón simple de Docker (ejemplo):

# pull a community image (verify authenticity before use)
docker pull automatic1111/stable-diffusion-webui:latest

# run (bind port 7860)
docker run --gpus all -p 7860:7860 -v /local/models:/data/models automatic1111/stable-diffusion-webui:latest

Los proveedores de nube suelen cobrar por hora; para uso en producción o en equipo, evalúa servicios gestionados como Hugging Face Inference Endpoints o las propias API de Stability. Son de pago, pero reducen la sobrecarga operativa.


Solución de problemas y consejos de rendimiento

Problemas comunes

  • La instalación falla en torch o por incompatibilidad de CUDA. Comprueba que la wheel de PyTorch coincida con la versión de CUDA (controlador) del sistema; usa el instalador oficial de PyTorch para generar el comando pip correcto.
  • Descarga del modelo bloqueada / 403. Asegúrate de haber iniciado sesión en Hugging Face y aceptado la licencia del modelo. Algunos modelos requieren Git LFS.
  • OOM (sin memoria). Reduce la resolución de inferencia, cambia a media precisión (torch_dtype=torch.float16) o habilita xformers / atención eficiente en memoria en WebUI.

Ajuste de rendimiento

  • Instala xformers (si es compatible) para atención eficiente en memoria.
  • Usa las flags --precision full frente a --precision fp16 según la estabilidad.
  • Si tienes memoria GPU limitada, considera la descarga a CPU o el uso del formato safetensors, que puede ser más rápido y seguro.

¿Qué hay de nuevo en Stable Diffusion 3.5?

El lanzamiento de Stable Diffusion 3.5 trae una serie de mejoras y nuevas funciones que potencian aún más las capacidades de este potente modelo de generación de imágenes.

Mejor calidad de imagen y seguimiento de prompts

Stable Diffusion 3.5 presenta mejoras significativas en la calidad de imagen, con mejor fotorrealismo, iluminación y detalle. También tiene una comprensión mucho mejor de prompts de texto complejos, lo que da como resultado imágenes que reflejan con mayor precisión la visión creativa del usuario. La representación de texto también ha mejorado, haciendo posible generar imágenes con texto legible.

Nuevos modelos: Large y Turbo

Stable Diffusion 3.5 está disponible en dos variantes principales:

  • Stable Diffusion 3.5 Large: Este es el modelo más potente, capaz de producir imágenes de la más alta calidad. Requiere una GPU con al menos 16 GB de VRAM.
  • Stable Diffusion 3.5 Large Turbo: Este modelo está optimizado para la velocidad y puede ejecutarse en GPU con tan solo 8 GB de VRAM. Genera imágenes mucho más rápido que el modelo Large, manteniendo al mismo tiempo un alto nivel de calidad.

Optimizaciones y colaboraciones

Stability AI ha colaborado con NVIDIA y AMD para optimizar el rendimiento de Stable Diffusion 3.5 en su respectivo hardware. Estas optimizaciones, que incluyen soporte para TensorRT y FP8 en las GPU NVIDIA RTX, se traducen en tiempos de generación más rápidos y menor uso de memoria, haciendo que Stable Diffusion sea más accesible para una gama más amplia de usuarios.

Cómo puedo ejecutar Stable Diffusion sin GPU local

Si no tienes una GPU capaz, usa CometAPI, proporciona una API en la nube de Stable Diffusion para la generación de imágenes, y otras API de generación de imágenes como GPT Image 1.5 API y Nano Banano Series API.

Conclusión

Stable Diffusion ha cambiado fundamentalmente la forma en que creamos e interactuamos con las imágenes digitales. Su naturaleza de código abierto, combinada con sus capacidades en constante expansión, ha permitido a una comunidad global de creadores explorar nuevas fronteras artísticas. Con el lanzamiento de Stable Diffusion 3.5, esta potente herramienta se ha vuelto aún más accesible y versátil, ofreciendo una visión de un futuro en el que el único límite de lo que podemos crear es nuestra propia imaginación. Tanto si eres un artista experimentado, un desarrollador curioso o simplemente alguien que quiere experimentar con el poder de la IA, esta guía te proporciona la base que necesitas para comenzar con Stable Diffusion y desbloquear tu potencial creativo.

Para comenzar, crea arte en CometAPI en el Playground. Asegúrate de haber iniciado sesión para obtener tu clave API y empezar a crear hoy mismo.

¿Listo para empezar? → Prueba gratuita de Stable Diffusion a través de CometAPI!

¿Listo para reducir los costos de desarrollo de IA en un 20%?

Comienza gratis en minutos. Créditos de prueba gratuitos incluidos. No se requiere tarjeta de crédito.

Leer Más