Stable Diffusion Nasıl İndirilir — Adım Adım Kılavuz

CometAPI
AnnaJan 17, 2026
Stable Diffusion Nasıl İndirilir — Adım Adım Kılavuz

Stable Diffusion, metinden görüntüye modellerin en yaygın kullanılan açık kaynaklı ailesi olmaya devam ediyor. Stability AI, (özellikle Stable Diffusion 3 serisini yayımlayarak ve SDXL iyileştirmeleri yaparak) yinelemeyi sürdürdü. Stable Diffusion 3.5’in yakın zamanda piyasaya sürülmesiyle, bu teknolojinin yetenekleri daha da genişledi; gelişmiş görüntü kalitesi, istemleri daha iyi anlama ve daha esnek uygulamalar sunuyor. Bu rehber, Stable Diffusion’ın iç işleyişinden adım adım kurulum rehberine kadar kapsamlı bir genel bakış sağlayarak, bu çığır açan yapay zekânın yaratıcı potansiyelini kullanmanıza güç katıyor.

CometAPI, görüntü oluşturma için Stable Diffusion’ın bulut API’sini sağlar.

Stable Diffusion nedir?

Stable Diffusion, metin açıklamalarından görüntüler üreten bir derin öğrenme modelidir; bu teknolojiye metinden-görüntüye sentez denir. Birçok diğer yapay zekâ görüntü oluşturucusunun aksine, Stable Diffusion açık kaynaklıdır; herkesin teknolojiyi kullanmasına, değiştirmesine ve onun üzerine inşa etmesine olanak tanır.

Model, devasa bir görüntü veriseti ve bunların karşılık gelen metin açıklamaları üzerinde eğitilmiştir; bu sayede kelimelerle görsel kavramlar arasındaki karmaşık ilişkileri öğrenir. Bir metin istemi sağladığınızda, Stable Diffusion bu öğrenilmiş bilgiyi kullanarak açıklamanıza uyan benzersiz bir görüntü oluşturur. Elde edilebilecek ayrıntı ve gerçekçilik düzeyi dikkat çekicidir; fotogerçekçi görüntülerden, çok çeşitli stillerde fantastik illüstrasyonlara kadar uzanır.

Metinden-Görüntüye’nin Ötesindeki Yetenekler

Temel işlevi metinden görüntü üretmek olsa da, Stable Diffusion’ın yetenekleri bu çekirdek özelliğin çok ötesine uzanır. Çok yönlülüğü, geniş bir yaratıcı görev yelpazesi için kapsamlı bir araç haline getirir:

  • Görüntüden Görüntüye: Mevcut bir görüntü ve modeli yönlendirmek için bir metin istemi sağlayarak, orijinal görüntünün dönüştürülmesini sağlayabilirsiniz. Bu özellik, sanatsal stil verme, kavram keşfi ve yaratıcı denemeler için idealdir.
  • İç Boyama (Inpainting) ve Dış Boyama (Outpainting): Stable Diffusion, bir görüntünün seçili kısımlarını değiştirmeye (inpainting) veya görüntüyü orijinal sınırlarının ötesine genişletmeye (outpainting) izin verir. Bu, fotoğraf restorasyonu, nesne kaldırma ve tuvali genişletme gibi işler için son derece kullanışlıdır.
  • Video Oluşturma: Son gelişmelerle birlikte, Stable Diffusion artık video ve animasyon oluşturmak için de kullanılabilir; bu da dinamik görsel hikâye anlatımı için yeni olasılıkların kapısını açar.
  • ControlNets: Bunlar, pozlar, derinlik haritaları ve diğer yapısal öğeleri belirlemenize olanak tanıyarak görüntü üretim sürecini daha hassas kontrol etmenizi sağlayan ek modellerdir.

Açık Kaynak ve Erişilebilirlik

Stable Diffusion’ın en önemli yönlerinden biri, açık kaynak doğasıdır. Kod ve model ağırlıkları herkese açıktır; gerekli donanıma sahip olduğunuz sürece kendi bilgisayarınızda çalıştırabilirsiniz. Bu erişilebilirlik düzeyi, onu birçok tescilli yapay zekâ görüntü oluşturma hizmetinden ayırır ve yaygın benimsenmesinde kilit rol oynamıştır. Modeli yerel olarak çalıştırabilmek, kullanıcıya içerik kısıtlamaları veya bazı çevrimiçi platformların talep ettiği hizmet ücretleri olmadan, çalışmalar üzerinde tam yaratıcı özgürlük ve kontrol sağlar.

Stable Diffusion nasıl çalışır?

Gizil yaklaşım, piksel uzayındaki difüzyona kıyasla bellek ve hesaplama maliyetini dramatik biçimde azaltır; Stable Diffusion’ın tüketici GPU’larında pratik hale gelmesi böyle mümkün olmuştur. SDXL ve 3.x ailesi gibi varyantlar, çoklu-özne sadakati, çözünürlük ve istem işleme konularında gelişmeler sağlar; Stability ve topluluk tarafından periyodik olarak yeni sürümler yayımlanır.

Ana Bileşenler: VAE, U-Net ve Metin Kodlayıcı

Stable Diffusion, birlikte çalışarak görüntü üreten üç ana bileşenden oluşur:

Varyasyonel Otomatik Kodlayıcı (VAE): VAE, eğitim verilerindeki yüksek çözünürlüklü görüntüleri daha küçük bir gizil uzay temsiline sıkıştırmaktan ve üretilen gizil temsili tekrar tam çözünürlüklü bir görüntüye açmaktan sorumludur.

U-Net: Modelin çekirdeğidir; gizil uzayda çalışır. U-Net, difüzyon süreci sırasında eklenen gürültüyü tahmin edip kaldıracak şekilde eğitilmiştir. Gürültülü gizil temsili ve metin istemini girdi olarak alır ve gürültüsü giderilmiş gizil temsili çıktılar.

Metin Kodlayıcı: Metin kodlayıcı, metin isteminizi U-Net’in anlayabileceği sayısal bir temsile dönüştürür. Stable Diffusion tipik olarak, CLIP (Kontrastif Dil-Görüntü Ön Eğitimi) adı verilen, çok geniş bir görüntü ve altyazı veriseti üzerinde eğitilmiş önceden eğitilmiş bir metin kodlayıcı kullanır. CLIP, metnin anlamsal içeriğini yakalamada ve görüntü oluşturma sürecini yönlendirebilecek bir formata çevirmede son derece etkilidir.

Gürültü Giderme Süreci

Stable Diffusion’da görüntü oluşturma süreci şu şekilde özetlenebilir:

  1. Metin Kodlama: Metin isteminiz, bir metin gömme vektörü oluşturmak için metin kodlayıcıdan (CLIP) geçirilir.
  2. Rastgele Gürültü Üretimi: Gizil uzayda rastgele bir gürültü görüntüsü üretilir.
  3. Gürültü Giderme Döngüsü: U-Net, metin gömme vektörü tarafından yönlendirilerek, rastgele gürültü görüntüsünün gürültüsünü yinelemeli olarak giderir. Her adımda U-Net, gizil görüntüdeki gürültüyü tahmin eder ve bunu çıkarır; görüntü adım adım isteme uyacak şekilde rafine edilir.
  4. Görüntü Kodunu Çözme: Gürültü giderme süreci tamamlandığında, nihai gizil temsil VAE’nin kod çözücüsünden geçirilerek nihai, yüksek çözünürlüklü görüntü üretilir.

Hangi Donanım ve Yazılıma İhtiyacım Var?

Tipik donanım önerileri

  • GPU: CUDA destekli NVIDIA güçlü biçimde önerilir. Modern ve akıcı kullanım için mütevazı çözünürlüklerde ≥8 GB VRAM hedefleyin; 12–24 GB, yüksek çözünürlük veya karma hassasiyetli modeller için çok daha rahat bir deneyim sağlar. Daha düşük VRAM’li kartlarda optimizasyonlarla çok küçük denemeler mümkün olsa da, performans ve maksimum görüntü boyutu sınırlı olacaktır.
  • CPU / RAM: Modern çok çekirdekli herhangi bir CPU ve pratik bir taban seviye olarak ≥16 GB RAM.
  • Depolama: SSD (tercihen NVMe) ve modelleri, önbellekleri ve yardımcı dosyaları depolamak için 20–50 GB boş alan.
  • OS: Gelişmiş kullanıcılar için Linux (Ubuntu türevleri) en kullanışlısıdır; Windows 10/11 GUI paketleri için tamamen desteklenir; sunucular için Docker çalışır.

Yazılım önkoşulları

  • Python 3.10+ veya Conda ortamı.
  • GPU’nuz için CUDA araç kiti / NVIDIA sürücüsü ve eşleşen PyTorch paketi (yalnızca CPU planlamıyorsanız; bu çok yavaştır).
  • Git, Git LFS (bazı model indirmeleri için) ve gerekirse lisans kabulü gereken model indirmeleri için bir Hugging Face hesabı.

Önemli—lisans ve güvenlik: Birçok Stable Diffusion denetim noktası, Stability AI’nin topluluk lisansı veya belirli model lisansları kapsamında sunulur ve indirmeden önce kabul gerektirir. Hugging Face’te barındırılan modeller genellikle bir Hugging Face hesabına giriş yapmanızı ve koşulları açıkça kabul etmenizi ister; bu onay olmadan otomatik indirmeler başarısız olur.


Stable Diffusion’ı nasıl kurarım (Adım adım rehber)?

Aşağıda üç pratik kurulum yolu yer alır. İhtiyaçlarınıza uyan yolu seçin:

  • Yol A — Tam GUI: AUTOMATIC1111 Stable Diffusion WebUI (etkileşimli kullanım ve çok sayıda topluluk eklentisi için en iyisi).
  • Yol B — Programatik: Hugging Face diffusers hattı (entegrasyon ve betik yazımı için en iyisi).
  • Yol C — Bulut / Docker: Yerel GPU kaynaklarınız yoksa bir bulut VM’i veya konteyner kullanın.

Model ağırlıklarını nasıl indiririm ve lisansları nasıl kabul ederim?

Stable Diffusion model ağırlıkları birkaç yolla dağıtılır:

  1. Resmî Stability AI sürümleri — Stability, çekirdek modelleri yayımlar ve büyük sürümleri (3.x, SDXL, vb.) duyurur. Bu modeller genellikle Stability’nin web sitesinde ve Hugging Face’te bulunur.
  2. Hugging Face model kartları — Birçok topluluk ve resmî denetim noktası Hugging Face’te barındırılır. Yayınlanan SD denetim noktalarının çoğu için indirmeden önce giriş yapmanız ve model lisansını kabul etmeniz gerekir. diffusers API’si bu akışa uyar.
  3. Topluluk merkezleri (Civitai, GitHub, vb.) — Topluluk denetim noktalarını, gömmeleri ve LoRA’ları barındırır; her varlığın lisansını kontrol edin.

Pratik indirme adımları:

  • Gerekirse bir Hugging Face hesabı oluşturun.
  • Model sayfasını ziyaret edin (örneğin stabilityai/stable-diffusion-3-5) ve lisansı kabul edin.
  • huggingface-cli veya WebUI’nin model indirme iletişim penceresini kullanın. Git LFS destekli modeller için git lfs kurun ve yönergelere göre git clone yapın.

AUTOMATIC1111 WebUI’yi Windows veya Linux’ta nasıl kurarım?

AUTOMATIC1111’in WebUI’si, birçok eklenti ve yapılandırma seçeneği bulunan, popüler ve aktif olarak bakım gören bir GUI’dir. Depo, sürüm notları ve basit bir başlatıcı sağlar.

1) Ön hazırlık (Windows)

  • GPU’nuz için en güncel NVIDIA sürücüsünü kurun.
  • Windows için Git’i kurun.
  • Conda’yı tercih ediyorsanız: Miniconda’yı kurun.

2) Klonlayın ve başlatın (Windows)

Bir Powershell veya Komut İstemi açın, ardından şunları çalıştırın:

# clone the WebUI
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# On Windows, the provided batch scripts will handle dependencies.
# Use the following to fetch everything and launch:
.\webui-user.bat
# or, in older releases:
# .\run.bat

Komut dosyası Python paketlerini kurar, gerekli bileşenleri indirir ve varsayılan olarak http://127.0.0.1:7860 adresinde web arayüzünü açar. Proje bir model dosyası isterse, aşağıdaki Model indirme adımına bakın.

3) Klonlayın ve başlatın (Linux)

Önerilir: bir virtualenv veya conda ortamı oluşturun.

# system prerequisites: Python3, git, wget (example: Ubuntu)
sudo apt update && sudo apt install -y git python3-venv

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# Create a venv and activate
python3 -m venv venv
source venv/bin/activate

# Launch (the launcher will install requirements)
python launch.py

Linux’ta, GPU hızlandırmasını sağlamak için başlatmadan önce uygun CUDA destekli PyTorch’u kurmanız sıklıkla gerekir.

Model ağırlıkları nereye yerleştirilmeli: .ckpt, .safetensors veya SDXL dosyalarını models/Stable-diffusion/ içine koyun (gerekirse klasörü oluşturun). WebUI ağırlıkları otomatik olarak algılar.


Hugging Face Diffusers ile Stable Diffusion’ı nasıl kurarım?

Bu yol, programatik, betiklenebilir bir hat istiyorsanız veya oluşturmayı bir uygulamaya entegre ediyorsanız en iyisidir.

1) Python paketlerini kurun

Bir sanal ortam oluşturup etkinleştirin, ardından gerekli paketleri kurun:

python -m venv sdenv
source sdenv/bin/activate
pip install --upgrade pip
# Core packages (example - adjust CUDA wheel for your system per PyTorch's site)
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118
pip install diffusers transformers accelerate safetensors transformers[torch] huggingface-hub

İpucu: Sisteminizin CUDA sürümüne uygun PyTorch paketini resmi PyTorch kurulum sayfasını kullanarak kurun. diffusers belgelerinde uyumlu paket setleri listelenir.

2) Kimlik doğrulayın ve modelleri indirin (Hugging Face)

Hugging Face’teki birçok Stable Diffusion denetim noktası, giriş yapmanızı ve bir lisansı kabul etmenizi gerektirir. Bir terminalde:

pip install huggingface_hub
huggingface-cli login
# you will be prompted to paste your token (get it from your Hugging Face account settings)

Bir modeli programatik olarak yüklemek için (Hugging Face’te barındırılan bir denetim noktası örneği):

from diffusers import StableDiffusionPipeline
import torch

model_id = "stabilityai/stable-diffusion-3-5"  # example; replace with the model you agreed to
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16, use_safetensors=True)
pipe = pipe.to("cuda")

image = pipe("A professional photograph of a mountain at sunrise", num_inference_steps=25).images[0]
image.save("output.png")

Bir model eski sürümlerde use_auth_token=True gerektiriyorsa, use_auth_token=HUGGINGFACE_TOKEN sağlayın veya huggingface-cli login çalıştırıldığından emin olun. Her zaman model kartındaki lisans yönergelerine bakın.


Bulut örneği veya Docker nasıl kullanırım?

Uygun bir yerel GPU’nuz yoksa, NVIDIA GPU’su olan bir bulut VM’i (AWS, GCP, Azure) veya uzmanlaşmış bir yapay zekâ örneği kullanın. Alternatif olarak, birçok WebUI deposu Dockerfile yayımlar veya topluluk Docker imajları sağlar.

Basit bir Docker kalıbı (örnek):

# pull a community image (verify authenticity before use)
docker pull automatic1111/stable-diffusion-webui:latest

# run (bind port 7860)
docker run --gpus all -p 7860:7860 -v /local/models:/data/models automatic1111/stable-diffusion-webui:latest

Bulut sağlayıcıları genellikle saatlik ücretlendirir; üretim veya ekip kullanımı için Hugging Face Inference Endpoints veya Stability’nin kendi API’leri gibi yönetilen hizmetleri değerlendirin. Bunlar ücretlidir ancak operasyonel yükü azaltır.


Sorun Giderme ve Performans İpuçları

Yaygın sorunlar

  • Kurulum torch veya CUDA uyumsuzluğunda başarısız oluyor. PyTorch paketinizin sistemin CUDA (sürücü) sürümüyle eşleştiğinden emin olun; doğru pip komutunu üretmek için resmi PyTorch yükleyicisini kullanın.
  • Model indirme engellendi / 403. Hugging Face’e giriş yaptığınızdan ve model lisansını kabul ettiğinizden emin olun. Bazı modeller Git LFS gerektirir.
  • OOM (bellek yetersizliği). Çıkarım çözünürlüğünü düşürün, yarım hassasiyete (torch_dtype=torch.float16) geçin veya WebUI’de xformers / bellek verimli dikkat özelliğini etkinleştirin.

Performans ayarları

  • Bellek verimli dikkat için (destekleniyorsa) xformers kurun.
  • Kararlılığa bağlı olarak --precision full ve --precision fp16 bayraklarını kullanın.
  • Sınırlı GPU belleğiniz varsa, CPU’ya aktarım düşünün veya daha hızlı ve daha güvenli olabilen safetensors formatını kullanın.

Stable Diffusion 3.5 ile neler yeni?

Stable Diffusion 3.5’in yayınlanması, bu güçlü görüntü oluşturma modelinin yeteneklerini daha da geliştiren bir dizi iyileştirme ve yeni özellik getiriyor.

Gelişmiş Görüntü Kalitesi ve İstem Takibi

Stable Diffusion 3.5, görüntü kalitesinde, fotogerçekçilikte, aydınlatmada ve ayrıntıda önemli iyileştirmeler sunar. Ayrıca karmaşık metin istemlerini çok daha iyi anlar; bu da kullanıcıların yaratıcı vizyonunu daha doğru yansıtan görüntülerle sonuçlanır. Metin işleme de iyileştirilmiş olup, okunabilir metin içeren görüntüler üretmek mümkün hale gelmiştir.

Yeni Modeller: Large ve Turbo

Stable Diffusion 3.5 iki ana varyantta sunulur:

  • Stable Diffusion 3.5 Large: En yüksek kalitede görüntüler üretebilen en güçlü modeldir. En az 16GB VRAM’e sahip bir GPU gerektirir.
  • Stable Diffusion 3.5 Large Turbo: Hıza göre optimize edilmiştir ve 8GB kadar düşük VRAM’e sahip GPU’larda çalışabilir. Large modele kıyasla görüntüleri çok daha hızlı üretir ve yine de yüksek bir kalite seviyesi korur.

Optimizasyonlar ve İşbirlikleri

Stability AI, Stable Diffusion 3.5’in ilgili donanımlarda performansını optimize etmek için NVIDIA ve AMD ile işbirliği yaptı. NVIDIA RTX GPU’larda TensorRT ve FP8 desteği dâhil bu optimizasyonlar, daha hızlı üretim süreleri ve azaltılmış bellek kullanımı sağlar; Stable Diffusion’ı daha geniş bir kullanıcı kitlesi için daha erişilebilir kılar.

Yerel GPU olmadan Stable Diffusion’ı nasıl çalıştırabilirim

Uygun bir GPU’nuz yoksa, CometAPI kullanın; görüntü oluşturma için Stable Diffusion’ın bulut API’sini ve GPT Image 1.5 API ile Nano Banano Series API gibi diğer görüntü oluşturma API’lerini sağlar.

Sonuç

Stable Diffusion, dijital görselle etkileşim ve üretim biçimimizi kökten değiştirdi. Açık kaynak doğası, sürekli genişleyen yetenekleriyle birleştiğinde, küresel bir yaratıcı topluluğu yeni sanatsal ufukları keşfetmeye güçlendirdi. Stable Diffusion 3.5’in yayınlanmasıyla, bu güçlü araç daha da erişilebilir ve çok yönlü hale geldi; ne yaratabileceğimizin tek sınırının hayal gücümüz olduğu bir geleceğe göz kırpıyor. İster deneyimli bir sanatçı, ister meraklı bir geliştirici ya da sadece yapay zekânın gücüyle denemeler yapmak isteyen biri olun, bu rehber Stable Diffusion’la başlamanız ve yaratıcı potansiyelinizi açığa çıkarmanız için gereken temeli sunar.

Başlamak için, CometAPI üzerindeki Playground alanında eserler oluşturun. Bugün yapmaya başlamak için giriş yaparak API anahtarınızı aldığınızdan emin olun.

Hazır mısınız? → CometAPI aracılığıyla Stable Diffusion’ı ücretsiz deneyin!

Yapay zeka geliştirme maliyetlerinizi %20 azaltmaya hazır mısınız?

Dakikalar içinde ücretsiz başlayın. Ücretsiz deneme kredileri dahildir. Kredi kartı gerekmez.

Devamını Oku