Come scaricare Stable Diffusion — Guida passo dopo passo

CometAPI
AnnaJan 17, 2026
Come scaricare Stable Diffusion — Guida passo dopo passo

Stable Diffusion rimane la famiglia open source di modelli testo‑immagine più utilizzata. Stability AI ha continuato a iterare (pubblicando in particolare la serie Stable Diffusion 3 e i miglioramenti di SDXL). Con il recente lancio di Stable Diffusion 3.5, le capacità di questa tecnologia si sono ulteriormente ampliate, offrendo qualità d’immagine migliorata, migliore comprensione dei prompt e applicazioni più flessibili. Questa guida offre una panoramica completa di Stable Diffusion, dal suo funzionamento interno a una guida di installazione passo‑passo, per permetterti di sfruttare il potenziale creativo di questa rivoluzionaria IA.

CometAPI, offre API cloud di Stable Diffusion per la generazione di immagini.

Che cos’è Stable Diffusion?

Stable Diffusion è un modello di deep learning che genera immagini a partire da descrizioni testuali, una tecnologia nota come sintesi testo‑immagine. A differenza di molti altri generatori di immagini basati su IA, Stable Diffusion è open source, permettendo a chiunque di usare, modificare e sviluppare la tecnologia.

Il modello è addestrato su un enorme dataset di immagini e relative descrizioni testuali, che gli consente di apprendere le complesse relazioni tra parole e concetti visivi. Quando fornisci un prompt testuale, Stable Diffusion usa queste conoscenze per creare un’immagine unica che corrisponde alla tua descrizione. Il livello di dettaglio e realismo raggiungibile è notevole, spaziando da immagini fotorealistiche a illustrazioni fantastiche in un’ampia varietà di stili.

Funzionalità oltre il testo‑immagine

Sebbene la sua funzione principale sia generare immagini da testo, le capacità di Stable Diffusion vanno ben oltre questa caratteristica di base. La sua versatilità lo rende uno strumento completo per un’ampia gamma di attività creative:

  • Image-to-Image: Puoi fornire un’immagine esistente e un prompt testuale per guidare il modello nella trasformazione dell’immagine originale. Questa funzione è perfetta per la stilizzazione artistica, l’esplorazione di concept e la sperimentazione creativa.
  • Inpainting e Outpainting: Stable Diffusion consente di modificare selettivamente parti di un’immagine (inpainting) o di estenderla oltre i suoi bordi originali (outpainting). È estremamente utile per il restauro fotografico, la rimozione di oggetti e l’espansione della “tela” delle tue creazioni.
  • Video Creation: Con i progressi recenti, Stable Diffusion può essere usato per creare video e animazioni, aprendo nuove possibilità per lo storytelling visivo dinamico.
  • ControlNets: Sono modelli aggiuntivi che forniscono un controllo più preciso sul processo di generazione, permettendoti di specificare pose, mappe di profondità e altri elementi strutturali.

Open source e accessibilità

Uno degli aspetti più significativi di Stable Diffusion è la sua natura open source. Il codice e i pesi del modello sono pubblici, il che significa che puoi eseguirlo sul tuo computer, purché tu disponga dell’hardware necessario. Questo livello di accessibilità lo distingue da molti servizi proprietari e ha contribuito in modo decisivo alla sua ampia adozione. La possibilità di eseguire il modello in locale offre libertà creativa e controllo totali sul proprio lavoro, senza le restrizioni sui contenuti o i costi di servizio di alcune piattaforme online.

Come funziona Stable Diffusion?

L’approccio latente riduce drasticamente il costo in memoria e calcolo rispetto alla diffusione nello spazio dei pixel, ed è ciò che ha reso Stable Diffusion praticabile su GPU consumer. Varianti come SDXL e la famiglia 3.x migliorano la fedeltà multi‑soggetto, la risoluzione e la gestione dei prompt; nuove release vengono pubblicate periodicamente da Stability e dalla comunità.

Componenti chiave: VAE, U‑Net e encoder di testo

Stable Diffusion è composto da tre componenti principali che lavorano insieme per generare immagini:

Autoencoder variazionale (VAE): Il VAE è responsabile di comprimere le immagini ad alta risoluzione dei dati di addestramento in una rappresentazione nello spazio latente più piccolo e di decomprimere la rappresentazione latente generata di nuovo in un’immagine a piena risoluzione.

U‑Net: È il cuore del modello, una rete neurale che opera nello spazio latente. L’U‑Net è addestrato a prevedere e rimuovere il rumore aggiunto durante il processo di diffusione. Riceve in input la rappresentazione latente rumorosa e il prompt testuale, e produce una rappresentazione latente denoised.

Encoder di testo: L’encoder di testo trasforma il prompt in una rappresentazione numerica comprensibile dall’U‑Net. Stable Diffusion usa tipicamente un encoder di testo pre‑addestrato chiamato CLIP (Contrastive Language‑Image Pre‑Training), addestrato su un vasto dataset di immagini e didascalie. CLIP è estremamente efficace nel catturare il significato semantico del testo e nel tradurlo in un formato che può guidare il processo di generazione.

Il processo di denoising

Il processo di generazione delle immagini in Stable Diffusion può essere riassunto così:

  1. Text Encoding: Il tuo prompt viene passato attraverso l’encoder di testo (CLIP) per creare un embedding testuale.
  2. Generazione di rumore casuale: Viene generata un’immagine di rumore casuale nello spazio latente.
  3. Ciclo di denoising: L’U‑Net denoisa iterativamente l’immagine rumorosa, guidato dall’embedding testuale. A ogni step l’U‑Net predice il rumore nell’immagine latente e lo sottrae, affinando gradualmente l’immagine per farla corrispondere al prompt.
  4. Decodifica dell’immagine: Una volta concluso il processo di denoising, la rappresentazione latente finale viene passata al decoder del VAE per generare l’immagine finale ad alta risoluzione.

Di quale hardware e software ho bisogno?

Indicazioni hardware tipiche

  • GPU: NVIDIA con supporto CUDA fortemente consigliata. Per un uso moderno e fluido mira a ≥8 GB di VRAM per risoluzioni moderate; 12–24 GB offrono un’esperienza molto più confortevole per alte risoluzioni o modelli a precisione mista. Esperimenti molto piccoli sono possibili su schede con meno VRAM tramite ottimizzazioni, ma prestazioni e dimensione massima dell’immagine saranno limitate.
  • CPU / RAM: Qualsiasi CPU multi‑core moderna e ≥16 GB di RAM è una base pratica.
  • Storage: SSD (NVMe preferibile) e 20–50 GB di spazio libero per archiviare modelli, cache e file ausiliari.
  • OS: Linux (varianti Ubuntu) è il più comodo per utenti avanzati; Windows 10/11 è pienamente supportato per i pacchetti GUI; Docker è adatto per server.

Prerequisiti software

  • Python 3.10+ o ambiente Conda.
  • Toolkit CUDA / driver NVIDIA per la tua GPU e wheel PyTorch corrispondente (a meno di usare solo CPU, molto lento).
  • Git, Git LFS (per alcuni download di modelli) e, facoltativamente, un account Hugging Face per i modelli che richiedono accettazione licenza.

Importante — licenza e sicurezza: Molti checkpoint di Stable Diffusion sono disponibili sotto la community license di Stability AI o licenze specifiche e richiedono accettazione prima del download. I modelli ospitati su Hugging Face spesso richiedono l’accesso al tuo account e l’accettazione esplicita dei termini; i download automatici falliranno senza tale approvazione.


Come installo Stable Diffusion (guida passo‑passo)?

Di seguito tre percorsi pratici di installazione. Scegli quello più adatto alle tue esigenze:

  • Percorso A — GUI completa: AUTOMATIC1111 Stable Diffusion WebUI (ideale per uso interattivo, molti plugin della community).
  • Percorso B — Programmatico: pipeline diffusers di Hugging Face (ideale per integrazione e scripting).
  • Percorso C — Cloud / Docker: Usa una VM cloud o un container se non hai risorse GPU locali.

Come scaricare i pesi del modello e accettare le licenze?

I pesi dei modelli di Stable Diffusion sono distribuiti in vari modi:

  1. Release ufficiali di Stability AI — Stability pubblica i modelli core e annuncia le major release (3.x, SDXL, ecc.). Questi modelli sono spesso disponibili dal sito di Stability e su Hugging Face.
  2. Model card su Hugging Face — Molti checkpoint ufficiali e della community sono ospitati su Hugging Face. Per la maggior parte dei checkpoint SD pubblicati devi accedere e accettare la licenza del modello prima del download. L’API diffusers rispetta questo flusso.
  3. Hub della community (Civitai, GitHub, ecc.) — Ospitano checkpoint, embedding e LoRA della community; verifica la licenza di ogni asset.

Passi pratici per il download:

  • Crea un account Hugging Face se necessario.
  • Visita la pagina del modello (ad esempio stabilityai/stable-diffusion-3-5) e accetta la licenza.
  • Usa huggingface-cli o la finestra di download modelli della WebUI. Per i modelli basati su Git LFS, installa git lfs e usa git clone secondo le istruzioni.

Come installare la WebUI di AUTOMATIC1111 su Windows o Linux?

La WebUI di AUTOMATIC1111 è una GUI popolare e attivamente mantenuta, con molte estensioni e opzioni di configurazione. Il repository fornisce note di rilascio e un launcher semplice.

1) Preparazione (Windows)

  • Installa l’ultimo driver NVIDIA per la tua GPU.
  • Installa Git for Windows.
  • Se preferisci Conda: installa Miniconda.

2) Clonare e avviare (Windows)

Apri PowerShell o Prompt dei comandi, quindi esegui:

# clona la WebUI
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# Su Windows, gli script batch forniti gestiscono le dipendenze.
# Usa il seguente comando per scaricare tutto e avviare:
.\webui-user.bat
# oppure, in release meno recenti:
# .\run.bat

Lo script installerà i pacchetti Python, scaricherà i componenti necessari e aprirà la web UI su http://127.0.0.1:7860 per impostazione predefinita. Se il progetto richiede un file modello, vedi lo step di download dei modelli più sotto.

3) Clonare e avviare (Linux)

Consigliato: crea un virtualenv o un ambiente conda.

# prerequisiti di sistema: Python3, git, wget (esempio: Ubuntu)
sudo apt update && sudo apt install -y git python3-venv

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# Crea un venv e attivalo
python3 -m venv venv
source venv/bin/activate

# Avvia (il launcher installerà i requisiti)
python launch.py

Su Linux spesso è necessario installare la versione di PyTorch con supporto CUDA appropriata prima dell’avvio per garantire l’accelerazione GPU.

Dove posizionare i pesi del modello: Metti i file modello .ckpt, .safetensors o i file SDXL in models/Stable-diffusion/ (crea la cartella se necessario). La WebUI rileva automaticamente i pesi.


Come installare Stable Diffusion con Hugging Face Diffusers ?

Questo percorso è ideale se desideri una pipeline programmabile e scriptabile o se stai integrando la generazione in un’applicazione.

1) Installare i pacchetti Python

Crea e attiva un ambiente virtuale, quindi installa i pacchetti richiesti:

python -m venv sdenv
source sdenv/bin/activate
pip install --upgrade pip
# Pacchetti core (esempio - adatta la wheel CUDA al tuo sistema seguendo il sito di PyTorch)
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118
pip install diffusers transformers accelerate safetensors transformers[torch] huggingface-hub

Suggerimento: installa la wheel PyTorch corretta per la tua versione di CUDA usando la pagina di installazione ufficiale di PyTorch. La documentazione di diffusers elenca i set di pacchetti compatibili.

2) Autenticarsi e scaricare i modelli (Hugging Face)

Molti checkpoint di Stable Diffusion su Hugging Face richiedono l’accesso e l’accettazione di una licenza. Da terminale:

pip install huggingface_hub
huggingface-cli login
# ti verrà chiesto di incollare il tuo token (recuperalo dalle impostazioni del tuo account Hugging Face)

Per caricare un modello a livello programmatico (esempio per un checkpoint ospitato su Hugging Face):

from diffusers import StableDiffusionPipeline
import torch

model_id = "stabilityai/stable-diffusion-3-5"  # esempio; sostituisci con il modello per cui hai accettato la licenza
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16, use_safetensors=True)
pipe = pipe.to("cuda")

image = pipe("Una fotografia professionale di una montagna all'alba", num_inference_steps=25).images[0]
image.save("output.png")

Se un modello richiede use_auth_token=True in versioni meno recenti, fornisci use_auth_token=HUGGINGFACE_TOKEN o assicurati di aver eseguito huggingface-cli login. Consulta sempre la model card per le istruzioni sulla licenza.


Come usare un’istanza cloud o Docker?

Se non disponi di una GPU locale adeguata, usa una VM cloud (AWS, GCP, Azure) con GPU NVIDIA o un’istanza specializzata per IA. In alternativa, molti repository della WebUI pubblicano Dockerfile o immagini Docker della community.

Uno schema Docker semplice (esempio):

# scarica un'immagine della community (verifica l'autenticità prima dell'uso)
docker pull automatic1111/stable-diffusion-webui:latest

# esegui (esponi la porta 7860)
docker run --gpus all -p 7860:7860 -v /local/models:/data/models automatic1111/stable-diffusion-webui:latest

I provider cloud spesso fatturano a ore; per produzione o uso in team valuta servizi gestiti come Hugging Face Inference Endpoints o le API di Stability. Sono a pagamento ma riducono l’overhead operativo.


Risoluzione dei problemi e suggerimenti sulle prestazioni

Problemi comuni

  • Installazione non riuscita su torch o mancata corrispondenza CUDA. Verifica che la wheel PyTorch corrisponda alla versione CUDA (driver) del sistema; usa l’installer ufficiale di PyTorch per generare il comando pip corretto.
  • Download del modello bloccato / 403. Assicurati di aver effettuato l’accesso a Hugging Face e di aver accettato la licenza del modello. Alcuni modelli richiedono Git LFS.
  • OOM (out of memory). Riduci la risoluzione di inferenza, passa alla mezza precisione (torch_dtype=torch.float16) o abilita xformers/memory‑efficient attention nella WebUI.

Ottimizzazione delle prestazioni

  • Installa xformers (se supportato) per l’attenzione a uso di memoria efficiente.
  • Usa i flag --precision full vs --precision fp16 a seconda della stabilità.
  • Se hai memoria GPU limitata, valuta il CPU offload o l’uso del formato safetensors, che può essere più veloce e sicuro.

Novità di Stable Diffusion 3.5?

Il rilascio di Stable Diffusion 3.5 porta numerosi miglioramenti e nuove funzionalità che accrescono ulteriormente le capacità di questo potente modello di generazione di immagini.

Qualità dell’immagine e aderenza al prompt migliorate

Stable Diffusion 3.5 offre miglioramenti significativi nella qualità delle immagini, con fotorealismo, illuminazione e dettagli superiori. Comprende molto meglio prompt complessi, producendo immagini che rispecchiano più accuratamente la visione creativa dell’utente. Anche il rendering del testo è migliorato, rendendo possibile generare immagini con testo leggibile.

Nuovi modelli: Large e Turbo

Stable Diffusion 3.5 è disponibile in due varianti principali:

  • Stable Diffusion 3.5 Large: È il modello più potente, in grado di produrre immagini della massima qualità. Richiede una GPU con almeno 16 GB di VRAM.
  • Stable Diffusion 3.5 Large Turbo: Questo modello è ottimizzato per la velocità e può essere eseguito su GPU con soli 8 GB di VRAM. Genera immagini molto più velocemente rispetto al modello Large, mantenendo comunque un elevato livello di qualità.

Ottimizzazioni e collaborazioni

Stability AI ha collaborato con NVIDIA e AMD per ottimizzare le prestazioni di Stable Diffusion 3.5 sul rispettivo hardware. Queste ottimizzazioni, che includono il supporto per TensorRT e FP8 sulle GPU NVIDIA RTX, si traducono in tempi di generazione più rapidi e minore uso di memoria, rendendo Stable Diffusion accessibile a un pubblico più ampio.

Come posso eseguire Stable Diffusion senza una GPU locale

Se ti manca una GPU adeguata, usa CometAPI, che offre API cloud di Stable Diffusion per la generazione di immagini e altre API di generazione, come GPT Image 1.5 API e Nano Banano Series API.

Conclusione

Stable Diffusion ha cambiato radicalmente il modo in cui creiamo e interagiamo con le immagini digitali. La sua natura open source, combinata con capacità in continua espansione, ha consentito a una comunità globale di creatori di esplorare nuovi confini artistici. Con il rilascio di Stable Diffusion 3.5, questo potente strumento è diventato ancora più accessibile e versatile, offrendo uno sguardo su un futuro in cui l’unico limite a ciò che possiamo creare è la nostra immaginazione. Che tu sia un artista esperto, uno sviluppatore curioso o semplicemente qualcuno che vuole sperimentare la potenza dell’IA, questa guida fornisce le basi per iniziare con Stable Diffusion e sbloccare il tuo potenziale creativo.

Per iniziare, crea opere su CometAPI nel Playground. Assicurati di aver effettuato l’accesso per ottenere la tua chiave API e inizia a creare oggi stesso.

Pronto per iniziare? → Prova gratuita di Stable Diffusion tramite CometAPI!

Leggi di più

500+ Modelli in Una API

Fino al 20% di sconto