FLUX.2 ist die zweite Generation der Bildgenerierungs- und Bildbearbeitungs-Modelle von Black Forest Labs (veröffentlicht am 25. Nov. 2025). Es bietet produktionsreife Fotorealität, Multi-Reference-Editing bis zu 4MP, strukturiertes/JSON-Prompting sowie die Wahl zwischen verwalteten Endpunkten (Pro, Flex) und Open-Weight-Optionen (Dev).
Die gute Nachricht ist, dass CometAPI die Flux.2 API integriert hat. Dieser Leitfaden erklärt, was FLUX.2 ist, wie die API aufgerufen wird, und fortgeschrittene Workflows (Text→Bild, flexible Steuerung, Multi-Reference-Editing) mit Codebeispielen und Best Practices.
Was ist FLUX.2 und warum ist es wichtig?
FLUX.2 ist der Nachfolger der FLUX-Familie von Bildmodellen — entwickelt für hochfidele Text-zu-Bild-Generierung und Multi-Reference-Bildbearbeitung in Produktionsauflösungen (bis zu ~4 Megapixel). FLUX.2 ist für echte kreative Workflows gebaut (markensichere Assets, konsistente Charaktere und Stile über Referenzen hinweg, bessere Typografie und feine Details) statt für Demos und zielt darauf ab, die Lücke zwischen generierten und realen Bildern zu schließen.
Zentrale Ergebnisse, auf die FLUX.2 ausgelegt ist
- Fotorealistische Ausgaben für Werbung, Produktbilder und UI-Mockups.
- Native Multi-Reference-Bearbeitung: Elemente aus mehreren Eingabebildern in einem einzigen Edit kombinieren, austauschen oder komponieren.
- Varianten für unterschiedliche Anwendungsfälle: offen verfügbare Developer-Modelle, ein Pro-Endpunkt für den Produktionseinsatz und ein Flex-Endpunkt für Low-Level-Kontrolle.
Auf hoher Ebene kombiniert FLUX.2 ein latentes generatives Rückgrat (flow/transformer architecture) mit einem Vision–Language-Modell zur semantischen Verankerung sowie ein neu trainiertes VAE, um einen gemeinsamen latenten Raum über die Varianten hinweg bereitzustellen. Dieses Design ermöglicht dem Modell sowohl Generierung als auch Rekonstruktion (Editing) mit höherer Wiedergabetreue, während die Repräsentation für Training und Fine-Tuning erlernbar bleibt. Das offene VAE ist besonders bemerkenswert, da es den latenten Raum für gehostete und selbstgehostete Workflows standardisiert.
Warum das wichtig ist: Die Kopplung von Sprache und latentem Flow Matching führt zu stärkerer Prompt-Befolgung (sodass mehrteilige, kompositionelle Anweisungen vorhersagbar funktionieren), besserer Typografie und einer einzigen Architektur, die sowohl Generierung als auch Editing mit mehreren Referenzen unterstützt. Für Kreative bedeutet das verlässlichere Ergebnisse bei komplexen Anweisungen und gemischten Eingaben (Text + Bilder).
Wie greife ich auf die FLUX.2 API zu?
Umgebung vorbereiten
Registrieren und melden Sie sich bei CometAPI an und holen Sie sich Ihren API-Schlüssel aus Ihrem Profilbereich. Idealerweise sollten Sie als Entwickler grundlegende API-Kenntnisse haben (wir unterstützen Sie dabei, also keine Sorge).
Sie müssen außerdem Ihre gewünschte Anfragemethode und das passende Flux.2-Modell auswählen.
Welche Endpunkte und welche Authentifizierung sind erforderlich?
Die Replicate Predictions API ermöglicht den Zugriff auf hochqualitative Bildgenerierung mit verschiedenen FLUX-Modellen von Black Forest Labs über das Standard-Replicate-Format. Diese API unterstützt eine umfassende Palette von FLUX-Modellvarianten, die jeweils für unterschiedliche Anwendungsfälle optimiert sind — von schnellem Prototyping bis hin zu professioneller Bildgenerierung. Benutzer können nahtlos zwischen verschiedenen Modellen wechseln, indem sie einfach den Modellnamen im URL-Pfad ändern (https://api.cometapi.com/replicate/v1/models/{models}/predictions), was sie flexibel für verschiedene kreative und kommerzielle Anwendungen macht.
CometAPI stellt verwaltete Endpunkte unter https://api.cometapi.com/flux/v1/{model} bereit und benennt Endpunkte wie flux-2-pro, flux-2-flex und flux-2-flex für Bilderstellung und -bearbeitung. Anfragen erfordern einen API-Schlüssel im Header x-key.
Modellfamilie & Compute-Abwägungen
- FLUX.2 (Open-Weights) — Verwenden Sie dies, wenn Sie lokale Kontrolle, Forschungsexperimente oder Inferenz auf eigener Infrastruktur benötigen. Dev ist Open-Weight (32B) und hervorragend für explorative Forschung und Fine-Tuning. Es ist stärker konfigurierbar, aber Sie sind für Infrastruktur und Optimierung verantwortlich.
- FLUX.2 Pro — Bester Kompromiss aus Geschwindigkeit, Qualität und Kosten für die Produktion. Pro ist auf vorhersehbare Latenz, konsistente Prompt-Adhärenz, hohen Durchsatz optimiert und unterstützt bis zu 8 API-Referenzbilder (9MP insgesamt via API). Nutzen Sie dies für hochvolumiges Editing und wenn Zuverlässigkeit und kalkulierbare Preise erforderlich sind.
- FLUX.2 (verwaltet + Steuerbarkeit) — Stellt Low-Level-Generierungskontrollen (z. B.
steps,guidance) bereit und unterstützt mehr Referenzen (bis zu 10) sowie etwas höhere Qualität/Detail, wenn Sie höhere Latenz und Kosten akzeptieren. Verwenden Sie Flex, wenn Sie maximale kreative Kontrolle benötigen — Typografie-Treue, exakte Farben oder hochdetaillierte Kompositionsanpassungen.
Prototyping auf Dev oder einem kostengünstigen Pro-Plan, dann für Skalierung zu Pro oder für hochkontrollierte finale Renderings zu Flex migrieren.
Wie verwende ich die FLUX.2 API?
Request-Lebenszyklus (Task + Polling-Modell)
Antworten auf Bearbeitungs-/Generierungsanfragen sind Task-Objekte, die eine polling_url und id enthalten; Sie erstellen eine Anfrage und pollen dann (oder nutzen Webhooks), um die signierte Ergebnis-URL abzurufen. Signierte URLs sind kurzlebig (typisch ~10 Minuten), daher Ausgaben zügig abrufen.
Die gehostete API folgt einem asynchronen Task-Modell:
- POST einer Generierungsanfrage → gibt eine
task idundpolling_urlsowie die geschätztencostzurück. - Die
polling_urlpollen, bisstatus == "Ready"ist, dann das Bildresultat abrufen (oft Base64 oder eine gehostete URL).
Beispiel: Python (requests) — submit & poll
import time, requests, os
API_KEY = os.environ
API_URL = "https://api.cometapi.com/flux/v1/flux-2-pro"
payload = {
"prompt": "A high-end product photo of a ceramic mug on a wooden desk, soft window light.",
"width": 1024, "height": 1024, "seed": 42
}
r = requests.post(API_URL, headers={"x-key": API_KEY, "accept":"application/json"}, json=payload)
r.raise_for_status()
task = r.json()
polling_url = task
while True:
time.sleep(0.5)
status_r = requests.get(polling_url, headers={"x-key": API_KEY})
status_r.raise_for_status()
status = status_r.json()
if status == "Ready":
print("Result URL:", status)
break
elif status in ("Error", "Failed"):
print("Generation failed:", status)
break
Dieses Muster (submit → poll oder Webhook) ist der primäre synchron/asynchrone Ablauf für die verwalteten Endpunkte.
Bildbearbeitung — Minimalbeispiel (curl mit Eingabe-URL)
curl -X POST "https://api.cometapi.com/flux/v1/flux-2-pro" \
-H "accept: application/json" \
-H "x-key: $CometAPI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"prompt": "Replace the background with a sunlit seaside boardwalk, keep the person intact and match lighting",
"input_image": "",
"width": 2048,
"height": 1536
}'
Für Multi-Reference-Editing verwenden Sie input_image, input_image_2, input_image_3, … (Pro unterstützt bis zu 8 Referenzen via API; Flex bis zu 10; für Dev empfohlen max. ~6 je nach Speicher).
Welche Basisparameter sollte ich senden?
Wichtige Felder im Request-Body (Bildbearbeitung / -generierung) sind:
guidanceundsteps— erlauben fein abgestimmte Kontrolle.prompt(string) — bis zu 32K Token; detaillierte natürliche Sprache oder strukturiertes JSON.input_image(string) — für Edits erforderlich (URL oder Base64).input_image_2…input_image_9— Multi-Reference-Bilder.width/height— Vielfache von 16; maximale Ausgabe 4MP.seed— Integer für Reproduzierbarkeit.safety_tolerance— Moderationsniveau.
Wie kann ich FLUX.2 Pro für professionelle Text-zu-Bild-Generierung nutzen?
FLUX.2 Pro ist auf zuverlässige, hochwertige Ausgaben abgestimmt. Verwenden Sie ihn, wenn Sie konsistente markenfähige Ergebnisse, schnelle Durchlaufzeiten und Enterprise-SLAs benötigen.
Workflow-Rezept — Produktionsbilder
- Prompts vorverarbeiten: eine kurze „Intent“-Zeile plus einen strukturierten Attributabschnitt (Licht, Objektiv, Stimmung, Farb-Hex-Codes für Markenfarben) verwenden. FLUX.2 unterstützt Hex-Farbsteuerung, um Markenpaletten zu erhalten.
- Mit konservativen Defaults starten: steps 30–50 und guidance scale 6–9.0; steps erhöhen für Details, guidance erhöhen, um Ergebnisse strikter an den Prompt zu binden.
- Seeds + deterministische Samplingverfahren für Reproduzierbarkeit im A/B-Testing verwenden.
- Pro-Endpunkt für Multi-Try-Sampling nutzen: N Variationen parallel anfordern und die beste wählen — günstiger und schneller als manuelles Hyperparameter-Tuning.
- Nachbearbeitung: entrauschen, leichte Tonemapping- oder vektorartige Retuschen in einer deterministischen Pipeline. Ziehen Sie einen kleinen GAN- oder Super-Resolution-Pass in Betracht, wenn Sie höher als die native Ausgabeauflösung gehen müssen.
Warum diese Schritte helfen: Pro balanciert Geschwindigkeit und Wiedergabetreue und setzt üblicherweise Safety-/Content-Filter nach der Generierung ein. Daher ist er die vernünftige Standardeinstellung für kundenorientierte Assets.
Die besten Tipps für die Bildgenerierung
1. Strukturiertes Prompting gewinnt in der Produktion. Organisieren Sie Prompts nach Priorität: Subjekt → Aktion → Stil → Kontext. Verwenden Sie JSON-Prompting (scene, subjects, camera, lighting, color_palette), wenn Sie deterministische Komposition über viele Bilder benötigen. Beispiel für eine JSON-Schema-Nutzung (Pseudo):
{
"scene": "product shot",
"subjects": [
{"type":"mug","pose":"center","style":"ceramic, matte"},
{"type":"background","style":"wooden desk, window light"}
],
"camera": {"focal_length":"85mm","aperture":"f2.8","angle":"slightly above"}
}
2. Reproduzierbarkeit: seed übergeben, um später zu reproduzieren. Einen Katalog pflegen, der Prompt + Seed → Bild für Nachverfolgbarkeit abbildet.
3. Batch & Orchestrierung: Für große Produktionsläufe viele Anfragen parallel an Pro senden, aber rate-limiten, um Drosselung zu vermeiden; den Pro-Endpunkt für vorhersehbare Latenz bevorzugen. Job-Queues und Worker-Pools einsetzen, um signierte Ergebnisse schnell herunterzuladen, sobald sie bereitstehen.
4. Moderation & Sicherheit: safety_tolerance verwenden, um die Strenge der Moderation zu steuern. Pro-Endpunkte enthalten Nutzungsrichtlinien und Content-Moderations-Hooks; serverseitige Prüfungen vor der Veröffentlichung integrieren.
5. Nachbearbeitung: Pro-Ausgaben sind hochwertig, benötigen aber gelegentlich kleine Retuschen. Einen automatisierten Postprocess-Schritt (Crop, Color Grading, Compositing) in Ihre Pipeline integrieren und menschliche Prüfung für markensensible Assets beibehalten.
Wie kann ich Ausgaben mit dem FLUX.2 Flex-Endpunkt anpassen?
Flex ist die „chirurgische“ Variante: steps, guidance, negative Prompts, Tile-Größen und Referenzanzahl feinabstimmen, um das Ergebnis präzise zu formen.
Wann Sie Flex wählen sollten
- Sie benötigen präzises typografisches Rendering (UI-Mockups, Labels).
- Sie müssen mehrere Referenzen mit Kontrolle über Pose und Licht zusammensetzen.
- Sie experimentieren mit fortgeschrittenen Prompt-Techniken (strukturierte Prompts, Ketten von Constraints).
Beispiel — Flex-Steuerparameter und ihre Wirkung
steps— mehr Schritte = feinere Details (auf Kosten der Latenz).guidance_scale— höher = näher am Textprompt, niedriger = mehr Kreativität.negative_prompt— Elemente explizit entfernen (z. B. „no watermark, no extra fingers“).tile_size/tiled_inference— für sehr hochauflösende Generierung den Inferenzraum kacheln, um Speicher gegen Geschwindigkeit zu tauschen.reference_weights— einige Endpunkte erlauben das Gewichtung von Referenzen, um zu steuern, welches Bild Pose vs. Stil vorgibt.
Praxis-Tipp: Für komplexe Kompositionen zunächst eine kurze Vorschau mit niedriger guidance laufen lassen, um die Komposition zu verifizieren, dann mit mehr steps und höherer guidance hochskalieren. Diese Zwei-Pass-Technik reduziert Kosten und liefert dennoch präzise finale Ergebnisse.
Beispiel: Flex-Request mit steps & guidance
curl -X POST "https://api.bfl.ai/v1/flux-2-flex" \
-H "Content-Type: application/json" \
-H "x-key: $BFL_API_KEY" \
-d '{
"prompt": "Cinematic movie poster, bold typography at top, main character centered, dramatic rim lighting",
"width": 1536, "height": 2048,
"steps": 50,
"guidance": 7.5,
"seed": 99999
}'
Tipp: Verwenden Sie Flex während der finalen kreativen Freigaben und Pro für groß angelegte, schnellere Pipelines. Flex ist spürbar besser kontrollierbar für Typografie- und Mikrodetaillaufgaben.
Best Practices für den Produktionseinsatz
Nachfolgend praxiserprobte Muster und pragmatische Hinweise für die Integration von FLUX.2 im großen Maßstab.
1) Kosten durch Tracking von Megapixeln & Caching steuern
Die Abrechnung von FLUX.2 basiert auf Megapixeln von Eingabe + Ausgabe. Für hochvolumige Generierung kleinere Vorschau-Render (Low-Res, schnelle steps) bevorzugen und nur für finale Render auf höhere MP eskalieren. Gerenderte Assets cachen (oder Diffs speichern), damit identische Jobs nicht erneut gerendert werden. Immer cost in den Antworten ausweisen und pro Anfrage protokollieren.
2) Tiers klug nutzen: Vorschau vs. Final-Render-Split
- Schnelle, low-step Pro-Render für Prototyping oder viele Varianten ausführen.
- Flex oder hoch-MP Pro-Läufe für final freigegebene Ausgaben einsetzen, bei denen Wiedergabetreue zählt. Dieser Hybridansatz balanciert Durchsatz und finale Bildqualität.
3) Prompt Engineering → strukturierte Prompts & JSON
Nutzen Sie das strukturierte JSON-Prompting von FLUX.2, wenn Sie deterministische Komposition benötigen (Szenenobjekte, Kamera, Posen, Hex-Farbfelder). Das reduziert iterative Prompt-Schleifen und führt zu reproduzierbareren Batches. Cloudflare-Beispiele zeigen JSON-Prompts, die in Multipart-Formulare eingebettet sind.
4) Seed + Versionierung für Reproduzierbarkeit
Wenn Sie reproduzierbare Ergebnisse benötigen, seed übergeben und Modellversion/ Zeitstempel in Metadaten erfassen. Für deterministische Asset-Pipelines ein Manifest pflegen: Prompt, Seed, Modellvariante, Auflösung, Referenzbild-Hashes. Das verbessert Nachverfolgbarkeit und Rollback-Optionen.
Fazit
FLUX.2 zielt klar darauf ab, die Lücke zwischen „beeindruckender Demo“ und „kreativem Produktionswerkzeug“ zu schließen. Mit Multi-Reference-Editing, hochauflösenden Ausgaben und einer Reihe gehosteter Endpunkte (plus offener Inferenzcode und quantisierte Consumer-Builds) bietet es Teams viele praktische Optionen: lokal für Forschung und Anpassung betreiben oder die gehosteten Pro-/Flex-Endpunkte für stabile Produktionspipelines nutzen.
Entwickler können über CometAPI auf die Flux.2 Dev API, Flux.2 Flex API und Flux.2 Pro API zugreifen. Zum Einstieg die Modellfähigkeiten von CometAPI im Playground erkunden und den API guide für detaillierte Anleitungen konsultieren. Stellen Sie vor dem Zugriff sicher, dass Sie bei CometAPI angemeldet sind und den API-Schlüssel erhalten haben. CometAPI bietet einen Preis, der weit unter dem offiziellen Preis liegt, um Ihnen die Integration zu erleichtern.
Bereit loszulegen?→ Melden Sie sich noch heute bei CometAPI an!
Wenn Sie mehr Tipps, Anleitungen und Neuigkeiten zu KI erfahren möchten, folgen Sie uns auf VK, X und Discord!
