Como baixar o Stable Diffusion — um guia passo a passo

CometAPI
AnnaJan 17, 2026
Como baixar o Stable Diffusion — um guia passo a passo

Stable Diffusion continua sendo a família de modelos texto-para-imagem de código aberto mais utilizada. A Stability AI segue iterando (notadamente publicando a série Stable Diffusion 3 e melhorias do SDXL). Com o lançamento recente do Stable Diffusion 3.5, as capacidades dessa tecnologia se expandiram ainda mais, oferecendo qualidade de imagem superior, melhor compreensão de prompts e aplicações mais flexíveis. Este guia oferece uma visão geral abrangente do Stable Diffusion, desde seu funcionamento interno até um guia de instalação passo a passo, ajudando você a aproveitar o potencial criativo desta IA inovadora.

CometAPI, oferece uma API em nuvem do Stable Diffusion para geração de imagens.

O que é o Stable Diffusion?

Stable Diffusion é um modelo de deep learning que gera imagens a partir de descrições em texto, uma tecnologia conhecida como síntese texto-para-imagem. Diferentemente de muitos outros geradores de imagens por IA, o Stable Diffusion é de código aberto, permitindo que qualquer pessoa use, modifique e desenvolva sobre a tecnologia.

O modelo é treinado em um conjunto massivo de imagens e suas descrições correspondentes, o que lhe permite aprender as relações complexas entre palavras e conceitos visuais. Quando você fornece um prompt de texto, o Stable Diffusion usa esse conhecimento para criar uma imagem única que corresponda à sua descrição. O nível de detalhamento e realismo pode ser notável, indo de imagens fotorrealistas a ilustrações fantasiosas em uma ampla variedade de estilos.

Capacidades além de texto-para-imagem

Embora sua função principal seja gerar imagens a partir de texto, as capacidades do Stable Diffusion vão muito além desse recurso central. Sua versatilidade o torna uma ferramenta abrangente para uma ampla gama de tarefas criativas:

  • Imagem para imagem (Image-to-Image): Você pode fornecer uma imagem existente e um prompt de texto para orientar o modelo na transformação da imagem original. Esse recurso é ideal para estilização artística, exploração de conceitos e experimentação criativa.
  • Inpainting e Outpainting: O Stable Diffusion permite modificar seletivamente partes de uma imagem (inpainting) ou estender a imagem além de suas bordas originais (outpainting). Isso é extremamente útil para restauração de fotos, remoção de objetos e expansão da tela de suas criações.
  • Criação de vídeo: Com os avanços recentes, o Stable Diffusion pode ser usado para criar vídeos e animações, abrindo novas possibilidades para narrativas visuais dinâmicas.
  • ControlNets: Modelos adicionais que proporcionam controle mais preciso sobre o processo de geração, permitindo especificar poses, mapas de profundidade e outros elementos estruturais.

Código aberto e acessibilidade

Um dos aspectos mais significativos do Stable Diffusion é sua natureza de código aberto. O código e os pesos do modelo estão publicamente disponíveis, o que significa que você pode executá-lo no seu próprio computador, desde que tenha o hardware necessário. Esse nível de acessibilidade o diferencia de muitos serviços proprietários de geração de imagens por IA e tem sido um fator-chave para sua ampla adoção. A capacidade de executar o modelo localmente dá aos usuários total liberdade criativa e controle sobre seu trabalho, sem as restrições de conteúdo ou taxas de serviço associadas a algumas plataformas online.

Como o Stable Diffusion funciona?

A abordagem latente reduz drasticamente o custo de memória e computação em comparação com a difusão em espaço de pixels, o que tornou o Stable Diffusion prático em GPUs de consumo. Variantes como SDXL e a família 3.x melhoram a fidelidade com múltiplos sujeitos, a resolução e o tratamento de prompts; novas versões surgem periodicamente da Stability e da comunidade.

Componentes-chave: VAE, U‑Net e codificador de texto

O Stable Diffusion é composto por três componentes principais que trabalham em conjunto para gerar imagens:

Autoencoder Variacional (VAE): O VAE é responsável por comprimir imagens de alta resolução dos dados de treinamento em uma representação de espaço latente menor e por descomprimir a representação latente gerada de volta para uma imagem em alta resolução.

U‑Net: É o núcleo do modelo, uma rede neural que opera no espaço latente. A U‑Net é treinada para prever e remover o ruído adicionado durante o processo de difusão. Ela recebe como entrada a representação latente ruidosa e o prompt de texto, e produz uma representação latente sem ruído.

Codificador de texto: Transforma seu prompt de texto em uma representação numérica que a U‑Net consegue entender. O Stable Diffusion normalmente usa um codificador de texto pré-treinado chamado CLIP (Contrastive Language-Image Pre-Training), treinado em um vasto conjunto de imagens e suas legendas. O CLIP é altamente eficaz em capturar o significado semântico do texto e traduzi-lo para um formato que pode guiar o processo de geração de imagens.

O processo de remoção de ruído

O processo de geração de imagem no Stable Diffusion pode ser resumido assim:

  1. Codificação do texto: Seu prompt é passado pelo codificador de texto (CLIP) para criar uma incorporação de texto.
  2. Geração de ruído aleatório: Uma imagem de ruído aleatório é gerada no espaço latente.
  3. Laço de denoising: A U‑Net remove iterativamente o ruído da imagem aleatória, guiada pela incorporação de texto. A cada etapa, a U‑Net prediz o ruído na imagem latente e o subtrai, refinando gradualmente a imagem para corresponder ao prompt.
  4. Decodificação da imagem: Quando o processo de denoising é concluído, a representação latente final é passada pelo decodificador do VAE para gerar a imagem final em alta resolução.

De que hardware e software eu preciso?

Orientações típicas de hardware

  • GPU: NVIDIA com suporte a CUDA é fortemente recomendada. Para uso moderno e fluido, mire em ≥8 GB de VRAM para resoluções modestas; 12–24 GB oferecem uma experiência muito mais confortável para alta resolução ou modelos de precisão mista. Experimentos muito pequenos são possíveis em placas com menos VRAM usando otimizações, mas o desempenho e o tamanho máximo da imagem serão limitados.
  • CPU / RAM: Qualquer CPU multicore moderna e ≥16 GB de RAM é um ponto de partida prático.
  • Armazenamento: SSD (preferencialmente NVMe) e 20–50 GB de espaço livre para armazenar modelos, caches e arquivos auxiliares.
  • SO: Linux (variantes do Ubuntu) é mais conveniente para usuários avançados; Windows 10/11 é totalmente suportado para pacotes com GUI; Docker funciona para servidores.

Pré-requisitos de software

  • Python 3.10+ ou ambiente Conda.
  • Toolkit CUDA / driver NVIDIA para sua GPU e a wheel do PyTorch correspondente (a menos que planeje usar apenas CPU, o que é muito lento).
  • Git, Git LFS (para alguns downloads de modelos) e, opcionalmente, uma conta no Hugging Face para downloads de modelos que exigem aceitação de licença.

Importante — licença e segurança: Muitos checkpoints do Stable Diffusion estão disponíveis sob a licença comunitária da Stability AI ou licenças específicas de modelo e exigem aceitação antes do download. Modelos hospedados no Hugging Face geralmente exigem que você faça login em uma conta do Hugging Face e aceite explicitamente os termos; downloads automatizados falharão sem essa aprovação.


Como instalar o Stable Diffusion (guia passo a passo)?

Abaixo estão três caminhos de instalação práticos. Escolha o que corresponde às suas necessidades:

  • Caminho A — GUI completa: AUTOMATIC1111 Stable Diffusion WebUI (melhor para uso interativo, muitos plugins da comunidade).
  • Caminho B — Programático: pipeline do Hugging Face diffusers (melhor para integração e scripts).
  • Caminho C — Nuvem / Docker: Use uma VM em nuvem ou contêiner se você não tiver recursos de GPU local.

Como baixar os pesos do modelo e aceitar licenças?

Os pesos do Stable Diffusion são distribuídos de várias formas:

  1. Lançamentos oficiais da Stability AI — A Stability publica os modelos principais e anuncia grandes versões (3.x, SDXL, etc.). Esses modelos costumam estar disponíveis no site da Stability e no Hugging Face.
  2. Model cards do Hugging Face — Muitos checkpoints oficiais e da comunidade estão hospedados no Hugging Face. Para a maioria dos checkpoints de SD publicados, você deve entrar e aceitar a licença do modelo antes de baixar. A API do diffusers respeita esse fluxo.
  3. Hubs da comunidade (Civitai, GitHub, etc.) — Hospedam checkpoints da comunidade, embeddings e LoRAs; verifique a licença de cada ativo.

Passos práticos para baixar:

  • Crie uma conta no Hugging Face, se necessário.
  • Visite a página do modelo (por exemplo, stabilityai/stable-diffusion-3-5) e aceite a licença.
  • Use huggingface-cli ou a caixa de diálogo de download de modelos do WebUI. Para modelos com Git LFS, instale git lfs e execute git clone conforme as instruções.

Como instalar o WebUI do AUTOMATIC1111 no Windows ou Linux?

O WebUI do AUTOMATIC1111 é uma GUI popular e ativamente mantida, com muitas extensões e opções de configuração. O repositório fornece notas de versão e um iniciador simples.

1) Pré-verificações (Windows)

  • Instale o driver NVIDIA mais recente para sua GPU.
  • Instale o Git para Windows.
  • Se preferir Conda: instale o Miniconda.

2) Clonar e iniciar (Windows)

Abra um PowerShell ou Prompt de Comando e execute:

# clone the WebUI
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# On Windows, the provided batch scripts will handle dependencies.
# Use the following to fetch everything and launch:
.\webui-user.bat
# or, in older releases:
# .\run.bat

O script instalará pacotes Python, fará download dos componentes necessários e abrirá a interface web em http://127.0.0.1:7860 por padrão. Se o projeto solicitar um arquivo de modelo, veja a etapa de download de modelos abaixo.

3) Clonar e iniciar (Linux)

Recomendado: crie um virtualenv ou ambiente conda.

# system prerequisites: Python3, git, wget (example: Ubuntu)
sudo apt update && sudo apt install -y git python3-venv

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# Create a venv and activate
python3 -m venv venv
source venv/bin/activate

# Launch (the launcher will install requirements)
python launch.py

No Linux, você geralmente precisará instalar o PyTorch com CUDA apropriado antes de iniciar para garantir a aceleração por GPU.

Onde colocar os pesos do modelo: Coloque arquivos de modelo .ckpt, .safetensors ou arquivos do SDXL em models/Stable-diffusion/ (crie a pasta se necessário). O WebUI detecta os pesos automaticamente.


Como instalar o Stable Diffusion com Hugging Face Diffusers?

Este caminho é ideal se você quer um pipeline programático e scriptável ou está integrando a geração em um aplicativo.

1) Instalar pacotes Python

Crie e ative um ambiente virtual e instale os pacotes necessários:

python -m venv sdenv
source sdenv/bin/activate
pip install --upgrade pip
# Core packages (example - adjust CUDA wheel for your system per PyTorch's site)
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118
pip install diffusers transformers accelerate safetensors transformers[torch] huggingface-hub

Dica: instale a wheel correta do PyTorch para sua versão do CUDA usando a página oficial de instalação do PyTorch. A documentação do diffusers lista conjuntos de pacotes compatíveis.

2) Autenticar e baixar modelos (Hugging Face)

Muitos checkpoints do Stable Diffusion no Hugging Face exigem que você esteja logado e aceite uma licença. No terminal:

pip install huggingface_hub
huggingface-cli login
# you will be prompted to paste your token (get it from your Hugging Face account settings)

Para carregar um modelo programaticamente (exemplo de checkpoint hospedado no Hugging Face):

from diffusers import StableDiffusionPipeline
import torch

model_id = "stabilityai/stable-diffusion-3-5"  # example; replace with the model you agreed to
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16, use_safetensors=True)
pipe = pipe.to("cuda")

image = pipe("A professional photograph of a mountain at sunrise", num_inference_steps=25).images[0]
image.save("output.png")

Se um modelo exigir use_auth_token=True em versões mais antigas, forneça use_auth_token=HUGGINGFACE_TOKEN ou certifique-se de que huggingface-cli login foi executado. Consulte sempre o model card para instruções de licença.


Como usar uma instância em nuvem ou Docker?

Se você não tiver uma GPU local adequada, use uma VM em nuvem (AWS, GCP, Azure) com uma GPU NVIDIA ou uma instância especializada em IA. Alternativamente, muitos repositórios do WebUI publicam Dockerfiles ou imagens Docker da comunidade.

Um padrão simples com Docker (exemplo):

# pull a community image (verify authenticity before use)
docker pull automatic1111/stable-diffusion-webui:latest

# run (bind port 7860)
docker run --gpus all -p 7860:7860 -v /local/models:/data/models automatic1111/stable-diffusion-webui:latest

Provedores de nuvem geralmente cobram por hora; para produção ou uso em equipe, avalie serviços gerenciados como Hugging Face Inference Endpoints ou as próprias APIs da Stability. São pagos, mas reduzem a sobrecarga operacional.


Solução de problemas e dicas de desempenho

Problemas comuns

  • Falha de instalação em torch ou incompatibilidade de CUDA. Verifique se a wheel do PyTorch corresponde à versão de CUDA (driver) do sistema; use o instalador oficial do PyTorch para gerar o comando pip correto.
  • Download do modelo bloqueado / 403. Certifique-se de ter feito login no Hugging Face e aceitado a licença do modelo. Alguns modelos exigem Git LFS.
  • OOM (out of memory). Reduza a resolução de inferência, altere para meia precisão (torch_dtype=torch.float16) ou ative xformers / atenção eficiente em memória no WebUI.

Ajustes de desempenho

  • Instale xformers (se suportado) para atenção eficiente em memória.
  • Use as flags --precision full vs --precision fp16 conforme a estabilidade.
  • Se você tem memória limitada na GPU, considere offload para CPU ou usar o formato safetensors, que pode ser mais rápido e seguro.

O que há de novo no Stable Diffusion 3.5?

O lançamento do Stable Diffusion 3.5 traz uma série de melhorias e novos recursos que elevam ainda mais as capacidades deste poderoso modelo de geração de imagens.

Qualidade de imagem aprimorada e melhor aderência ao prompt

O Stable Diffusion 3.5 apresenta melhorias significativas na qualidade de imagem, com melhor fotorrealismo, iluminação e detalhes. Ele também entende muito melhor prompts complexos, resultando em imagens que refletem com mais precisão a visão criativa do usuário. A renderização de texto também foi aprimorada, possibilitando gerar imagens com texto legível.

Novos modelos: Large e Turbo

Stable Diffusion 3.5 está disponível em duas variantes principais:

  • Stable Diffusion 3.5 Large: Este é o modelo mais poderoso, capaz de produzir imagens da mais alta qualidade. Requer uma GPU com pelo menos 16 GB de VRAM.
  • Stable Diffusion 3.5 Large Turbo: Este modelo é otimizado para velocidade e pode rodar em GPUs com apenas 8 GB de VRAM. Ele gera imagens muito mais rapidamente do que o modelo Large, mantendo um alto nível de qualidade.

Otimizações e colaborações

A Stability AI colaborou com a NVIDIA e a AMD para otimizar o desempenho do Stable Diffusion 3.5 em seus respectivos hardwares. Essas otimizações, que incluem suporte a TensorRT e FP8 nas GPUs NVIDIA RTX, resultam em tempos de geração mais rápidos e menor uso de memória, tornando o Stable Diffusion mais acessível a um público mais amplo.

Como executar o Stable Diffusion sem GPU local

Se você não tem uma GPU capaz, use a CometAPI, que oferece API em nuvem do Stable Diffusion para geração de imagens, além de outras APIs de geração de imagens como a GPT Image 1.5 API e a Nano Banano Series API.

Conclusão

O Stable Diffusion mudou fundamentalmente a forma como criamos e interagimos com imagens digitais. Sua natureza de código aberto, combinada com capacidades em constante expansão, capacitou uma comunidade global de criadores a explorar novas fronteiras artísticas. Com o lançamento do Stable Diffusion 3.5, essa ferramenta poderosa se tornou ainda mais acessível e versátil, oferecendo um vislumbre de um futuro em que o único limite para o que podemos criar é a nossa própria imaginação. Seja você um artista experiente, um desenvolvedor curioso ou alguém que simplesmente quer experimentar o poder da IA, este guia fornece a base necessária para começar com o Stable Diffusion e liberar seu potencial criativo.

Para começar, crie artes na CometAPI no Playground. Certifique-se de ter feito login para obter sua chave de API e começar a construir hoje.

Pronto para começar? → Teste gratuito do Stable Diffusion via CometAPI!

Leia Mais

500+ Modelos em Uma API

Até 20% de Desconto