Come scaricare Stable Diffusion — Una guida passo dopo passo

CometAPI
AnnaJan 17, 2026
Come scaricare Stable Diffusion — Una guida passo dopo passo

Stable Diffusion rimane la famiglia open-source di modelli testo-immagine più utilizzata. Stability AI ha continuato a iterare (in particolare pubblicando la serie Stable Diffusion 3 e miglioramenti a SDXL). Con il recente lancio di Stable Diffusion 3.5, le capacità di questa tecnologia si sono ulteriormente ampliate, offrendo una qualità dell'immagine superiore, una migliore comprensione dei prompt e applicazioni più flessibili. Questa guida fornisce una panoramica completa di Stable Diffusion, dal suo funzionamento interno a una guida passo-passo all'installazione, permettendoti di sfruttare il potenziale creativo di questa innovativa IA.

CometAPI, fornisce un'API cloud di Stable Diffusion per la generazione di immagini.

Che cos'è Stable Diffusion?

Stable Diffusion è un modello di deep learning che genera immagini a partire da descrizioni testuali, una tecnologia nota come sintesi testo-immagine. A differenza di molti altri generatori di immagini basati su IA, Stable Diffusion è open-source, consentendo a chiunque di usare, modificare e costruire sulla tecnologia.

Il modello è addestrato su un enorme dataset di immagini e relative descrizioni testuali, permettendogli di apprendere le complesse relazioni tra parole e concetti visivi. Quando fornisci un prompt testuale, Stable Diffusion usa queste conoscenze per creare un'immagine unica che corrisponde alla tua descrizione. Il livello di dettaglio e realismo raggiungibile è notevole, spaziando da immagini fotorealistiche a illustrazioni fantastiche in un'ampia varietà di stili.

Capacità oltre il text-to-image

Sebbene la sua funzione principale sia generare immagini da testo, le capacità di Stable Diffusion vanno ben oltre questa caratteristica. La sua versatilità lo rende uno strumento completo per un'ampia gamma di attività creative:

  • Da immagine a immagine (Image-to-Image): puoi fornire un'immagine esistente e un prompt testuale per guidare il modello nella trasformazione dell'immagine originale. Questa funzione è perfetta per la stilizzazione artistica, l'esplorazione di concept e la sperimentazione creativa.
  • Inpainting e Outpainting: Stable Diffusion consente di modificare selettivamente parti di un'immagine (inpainting) o di estendere l'immagine oltre i suoi bordi originali (outpainting). È estremamente utile per il restauro fotografico, la rimozione di oggetti e l'espansione della tela delle tue creazioni.
  • Creazione di video: con i progressi recenti, Stable Diffusion può essere utilizzato per creare video e animazioni, aprendo nuove possibilità per un racconto visivo dinamico.
  • ControlNets: si tratta di modelli aggiuntivi che forniscono un controllo più preciso sul processo di generazione, permettendoti di specificare pose, mappe di profondità e altri elementi strutturali.

Open source e accessibilità

Uno degli aspetti più significativi di Stable Diffusion è la sua natura open-source. Il codice e i pesi del modello sono pubblicamente disponibili, il che significa che puoi eseguirlo sul tuo computer, a patto di avere l'hardware necessario. Questo livello di accessibilità lo distingue da molti servizi proprietari di generazione di immagini e ha rappresentato un fattore chiave per la sua ampia adozione. La possibilità di eseguire il modello in locale offre agli utenti completa libertà creativa e controllo sul proprio lavoro, senza le restrizioni sui contenuti o i costi di alcuni servizi online.

Come funziona Stable Diffusion?

L’approccio latente riduce drasticamente il costo in memoria e calcolo rispetto alla diffusione nello spazio dei pixel, ed è così che Stable Diffusion è diventato praticabile sulle GPU consumer. Varianti come SDXL e la famiglia 3.x migliorano la fedeltà multi-soggetto, la risoluzione e la gestione dei prompt; nuove release arrivano periodicamente da Stability e dalla community.

I componenti chiave: VAE, U-Net e text encoder

Stable Diffusion è composto da tre componenti principali che lavorano insieme per generare immagini:

Variational Autoencoder (VAE): il VAE è responsabile della compressione delle immagini ad alta risoluzione dei dati di training in una rappresentazione nello spazio latente più piccolo e della decompressione della rappresentazione latente generata di nuovo in un'immagine a piena risoluzione.

U-Net: è il cuore del modello, una rete neurale che opera nello spazio latente. L’U-Net è addestrata a prevedere e rimuovere il rumore aggiunto durante il processo di diffusione. Prende in input la rappresentazione latente rumorosa e il prompt testuale e produce una rappresentazione latente denoised.

Text encoder: il text encoder trasforma il tuo prompt testuale in una rappresentazione numerica che l’U-Net può comprendere. Stable Diffusion utilizza tipicamente un text encoder pre-addestrato chiamato CLIP (Contrastive Language-Image Pre-Training), addestrato su un vasto dataset di immagini e relative didascalie. CLIP è altamente efficace nel catturare il significato semantico del testo e nel tradurlo in un formato in grado di guidare il processo di generazione.

Il processo di denoising

Il processo di generazione delle immagini in Stable Diffusion può essere riassunto come segue:

  1. Text encoding: il tuo prompt viene passato al text encoder (CLIP) per creare un embedding testuale.
  2. Generazione di rumore casuale: viene generata un'immagine di rumore casuale nello spazio latente.
  3. Ciclo di denoising: l’U-Net denoisa iterativamente l'immagine rumorosa, guidata dall'embedding testuale. A ogni passo, l’U-Net predice il rumore nell'immagine latente e lo sottrae, raffinando gradualmente l'immagine per adattarla al prompt.
  4. Decodifica dell’immagine: al termine del processo di denoising, la rappresentazione latente finale viene passata al decoder del VAE per generare l'immagine finale ad alta risoluzione.

Di quale hardware e software ho bisogno?

Indicazioni hardware tipiche

  • GPU: NVIDIA con supporto CUDA è fortemente consigliata. Per un uso moderno e fluido punta a ≥8 GB di VRAM per risoluzioni modeste; 12–24 GB offrono un’esperienza molto più confortevole per alte risoluzioni o modelli a precisione mista. Esperimenti molto piccoli sono possibili con schede a VRAM inferiore usando ottimizzazioni, ma prestazioni e dimensione massima dell’immagine saranno limitate.
  • CPU / RAM: qualsiasi CPU multi-core moderna e ≥16 GB di RAM sono una base pratica.
  • Storage: SSD (NVMe preferito) e 20–50 GB di spazio libero per memorizzare modelli, cache e file ausiliari.
  • OS: Linux (varianti Ubuntu) è più comodo per utenti avanzati; Windows 10/11 è pienamente supportato per i pacchetti con interfaccia grafica; Docker funziona per server.

Prerequisiti software

  • Python 3.10+ o ambiente Conda.
  • Toolkit CUDA / driver NVIDIA per la tua GPU e la ruota PyTorch corrispondente (a meno che tu non pianifichi l’uso della sola CPU, molto lento).
  • Git, Git LFS (per alcuni download di modelli) e facoltativamente un account Hugging Face per i download che richiedono accettazione di licenza.

Importante—licenza e sicurezza: molti checkpoint di Stable Diffusion sono disponibili sotto la community license di Stability AI o licenze specifiche del modello e richiedono l’accettazione prima del download. I modelli ospitati su Hugging Face spesso richiedono l’accesso con un account Hugging Face e l’accettazione esplicita dei termini; i download automatizzati falliranno senza tale approvazione.


Come installo Stable Diffusion (guida passo-passo)?

Di seguito tre percorsi d’installazione pratici. Scegli quello che meglio si adatta alle tue esigenze:

  • Path A — GUI completa: AUTOMATIC1111 Stable Diffusion WebUI (ideale per uso interattivo, molti plugin della community).
  • Path B — Programmatico: pipeline Hugging Face diffusers (ideale per integrazione e scripting).
  • Path C — Cloud / Docker: usa una VM cloud o un container se non disponi di risorse GPU locali.

Come scarico i pesi del modello e accetto le licenze?

I pesi dei modelli Stable Diffusion sono distribuiti in diversi modi:

  1. Rilasci ufficiali di Stability AI — Stability pubblica i modelli core e annuncia i rilasci principali (3.x, SDXL, ecc.). Questi modelli sono spesso disponibili dal sito di Stability e da Hugging Face.
  2. Model card di Hugging Face — molti checkpoint (ufficiali e della community) sono ospitati su Hugging Face. Per la maggior parte dei checkpoint SD pubblicati devi accedere e accettare la licenza del modello prima del download. L’API diffusers rispetta questo flusso.
  3. Hub della community (Civitai, GitHub, ecc.) — ospitano checkpoint della community, embedding e LoRA; verifica la licenza di ciascun asset.

Passi pratici per lo scaricamento:

  • Crea un account Hugging Face, se necessario.
  • Visita la pagina del modello (per esempio stabilityai/stable-diffusion-3-5) e accetta la licenza.
  • Usa huggingface-cli o la finestra di download modelli della WebUI. Per i modelli basati su Git LFS, installa git lfs e usa git clone seguendo le istruzioni.

Come installo la WebUI di AUTOMATIC1111 su Windows o Linux?

La WebUI di AUTOMATIC1111 è una GUI popolare e attivamente mantenuta, con molte estensioni e opzioni di configurazione. Il repository fornisce note di rilascio e un launcher semplice.

1) Preparazione (Windows)

  • Installa l'ultima versione del driver NVIDIA per la tua GPU.
  • Installa Git for Windows.
  • Se preferisci Conda: installa Miniconda.

2) Clonazione e avvio (Windows)

Apri PowerShell o il Prompt dei comandi, quindi esegui:

# clone the WebUI
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# On Windows, the provided batch scripts will handle dependencies.
# Use the following to fetch everything and launch:
.\webui-user.bat
# or, in older releases:
# .\run.bat

Lo script installerà i pacchetti Python, scaricherà i componenti necessari e aprirà l’interfaccia web su http://127.0.0.1:7860 per impostazione predefinita. Se il progetto richiede un file modello, vedi il passaggio sul download dei modelli qui sotto.

3) Clonazione e avvio (Linux)

Consigliato: crea un virtualenv o un ambiente conda.

# system prerequisites: Python3, git, wget (example: Ubuntu)
sudo apt update && sudo apt install -y git python3-venv

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# Create a venv and activate
python3 -m venv venv
source venv/bin/activate

# Launch (the launcher will install requirements)
python launch.py

Su Linux spesso dovrai installare la versione di PyTorch abilitata a CUDA appropriata prima dell’avvio per garantire l’accelerazione GPU.

Dove posizionare i pesi del modello: metti i file del modello .ckpt, .safetensors o SDXL in models/Stable-diffusion/ (crea la cartella se necessario). La WebUI rileva automaticamente i pesi.


Come installo Stable Diffusion con Hugging Face Diffusers ?

Questo percorso è ideale se desideri una pipeline programmabile e scriptabile o se stai integrando la generazione in un’applicazione.

1) Installa i pacchetti Python

Crea e attiva un ambiente virtuale, quindi installa i pacchetti richiesti:

python -m venv sdenv
source sdenv/bin/activate
pip install --upgrade pip
# Core packages (example - adjust CUDA wheel for your system per PyTorch's site)
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118
pip install diffusers transformers accelerate safetensors transformers[torch] huggingface-hub

Suggerimento: installa la ruota PyTorch corretta per la tua versione di CUDA usando la pagina ufficiale di installazione di PyTorch. La documentazione di diffusers elenca i set di pacchetti compatibili.

2) Autenticati e scarica i modelli (Hugging Face)

Molti checkpoint di Stable Diffusion su Hugging Face richiedono di aver effettuato l'accesso e di aver accettato una licenza. In un terminale:

pip install huggingface_hub
huggingface-cli login
# you will be prompted to paste your token (get it from your Hugging Face account settings)

Per caricare un modello in modo programmatico (esempio per un checkpoint ospitato su Hugging Face):

from diffusers import StableDiffusionPipeline
import torch

model_id = "stabilityai/stable-diffusion-3-5"  # example; replace with the model you agreed to
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16, use_safetensors=True)
pipe = pipe.to("cuda")

image = pipe("A professional photograph of a mountain at sunrise", num_inference_steps=25).images[0]
image.save("output.png")

Se un modello richiede use_auth_token=True nelle versioni precedenti, fornisci use_auth_token=HUGGINGFACE_TOKEN o assicurati di aver eseguito huggingface-cli login. Consulta sempre la model card per le istruzioni sulla licenza.


Come uso un'istanza cloud o Docker?

Se non hai una GPU locale adatta, utilizza una VM cloud (AWS, GCP, Azure) con GPU NVIDIA o un’istanza AI specializzata. In alternativa, molti repository della WebUI pubblicano Dockerfile o immagini Docker della community.

Uno schema Docker semplice (esempio):

# pull a community image (verify authenticity before use)
docker pull automatic1111/stable-diffusion-webui:latest

# run (bind port 7860)
docker run --gpus all -p 7860:7860 -v /local/models:/data/models automatic1111/stable-diffusion-webui:latest

I provider cloud spesso fatturano a ore; per la produzione o l’uso in team valuta servizi gestiti come Hugging Face Inference Endpoints o le API proprie di Stability. Sono a pagamento ma riducono l’overhead operativo.


Risoluzione dei problemi e suggerimenti sulle prestazioni

Problemi comuni

  • Installazione fallita a causa di torch o mismatch CUDA. Verifica che la ruota PyTorch corrisponda alla versione CUDA (driver) del sistema; usa l’installer ufficiale di PyTorch per generare il comando pip corretto.
  • Download del modello bloccato / 403. Assicurati di aver effettuato l’accesso a Hugging Face e di aver accettato la licenza del modello. Alcuni modelli richiedono Git LFS.
  • OOM (out of memory). Riduci la risoluzione di inferenza, passa alla mezza precisione (torch_dtype=torch.float16) o abilita xformers / attenzione a uso di memoria efficiente nella WebUI.

Ottimizzazione delle prestazioni

  • Installa xformers (se supportato) per un’attenzione più efficiente in memoria.
  • Usa i flag --precision full vs --precision fp16 a seconda della stabilità.
  • Se hai memoria GPU limitata, considera l’offload su CPU o l’uso del formato safetensors, che può essere più veloce e sicuro.

Cosa c'è di nuovo con Stable Diffusion 3.5?

Il rilascio di Stable Diffusion 3.5 porta numerosi miglioramenti e nuove funzionalità che potenziano ulteriormente le capacità di questo potente modello di generazione di immagini.

Qualità dell'immagine e aderenza ai prompt migliorate

Stable Diffusion 3.5 vanta significativi miglioramenti nella qualità dell’immagine, con fotorealismo, illuminazione e dettaglio superiori. Ha anche una comprensione molto migliore dei prompt complessi, producendo immagini che rispecchiano più accuratamente la visione creativa dell’utente. Il rendering del testo è stato migliorato, rendendo possibile generare immagini con testo leggibile.

Nuovi modelli: Large e Turbo

Stable Diffusion 3.5 è disponibile in due varianti principali:

  • Stable Diffusion 3.5 Large: questo è il modello più potente, in grado di produrre immagini della massima qualità. Richiede una GPU con almeno 16GB di VRAM.
  • Stable Diffusion 3.5 Large Turbo: questo modello è ottimizzato per la velocità e può funzionare su GPU con appena 8GB di VRAM. Genera immagini molto più rapidamente rispetto al modello Large, mantenendo comunque un alto livello di qualità.

Ottimizzazioni e collaborazioni

Stability AI ha collaborato con NVIDIA e AMD per ottimizzare le prestazioni di Stable Diffusion 3.5 sul loro hardware. Queste ottimizzazioni, che includono il supporto a TensorRT e FP8 sulle GPU NVIDIA RTX, si traducono in tempi di generazione più rapidi e minore uso di memoria, rendendo Stable Diffusion accessibile a un numero più ampio di utenti.

Come posso eseguire Stable Diffusion senza GPU locale

Se non disponi di una GPU adeguata, usa CometAPI, che fornisce un'API cloud di Stable Diffusion per la generazione di immagini, e altre API di generazione di immagini come GPT Image 1.5 API e Nano Banano Series API.

Conclusione

Stable Diffusion ha cambiato radicalmente il modo in cui creiamo e interagiamo con le immagini digitali. La sua natura open-source, combinata con capacità in continua espansione, ha permesso a una community globale di creatori di esplorare nuovi confini artistici. Con il rilascio di Stable Diffusion 3.5, questo potente strumento è diventato ancora più accessibile e versatile, offrendo uno sguardo su un futuro in cui l’unico limite a ciò che possiamo creare è la nostra immaginazione. Che tu sia un artista esperto, uno sviluppatore curioso o semplicemente qualcuno che vuole sperimentare la potenza dell’IA, questa guida offre le basi per iniziare con Stable Diffusion e sbloccare il tuo potenziale creativo.

Per iniziare, crea opere su CometAPI nel Playground. Assicurati di aver effettuato l’accesso per ottenere la tua chiave API e inizia a creare oggi stesso.

Pronto per iniziare? → Prova gratuita di Stable Diffusion tramite CometAPI!

Pronto a ridurre i costi di sviluppo AI del 20%?

Inizia gratuitamente in pochi minuti. Crediti di prova gratuiti inclusi. Nessuna carta di credito richiesta.

Leggi di più