FLUX.2 to druga generacja rodziny modeli Black Forest Labs do generowania i edycji obrazów (wydana 25 listopada 2025 r.). Zapewnia fotorealizm klasy produkcyjnej, edycję wieloreferencyjną do 4 MP, ustrukturyzowane/JSON-owe podpowiedzi oraz wybór zarządzanych endpointów (Pro, Flex) i opcji z otwartymi wagami (Dev).
Dobra wiadomość jest taka, że CometAPI zintegrowało API Flux.2. Ten przewodnik wyjaśnia, czym jest FLUX.2, jak wywoływać API oraz zaawansowane przepływy pracy (tekst→obraz, elastyczna kontrola, edycja wieloreferencyjna), wraz z przykładami kodu i najlepszymi praktykami.
Czym jest FLUX.2 i dlaczego ma to znaczenie?
FLUX.2 to kontynuacja rodziny modeli FLUX — zaprojektowana do generowania obrazów z tekstu o wysokiej wierności i wieloreferencyjnej edycji obrazów w rozdzielczościach produkcyjnych (do ~4 megapikseli). FLUX.2 powstał z myślą o rzeczywistych przepływach pracy twórczej (zasoby bezpieczne dla marki, spójne postaci i style między referencjami, lepsza typografia i drobne detale), a nie o demach, i ma na celu zmniejszenie różnicy między obrazami generowanymi a rzeczywistymi.
Kluczowe rezultaty, do których dąży FLUX.2
- Fotorealistyczne wyniki odpowiednie do reklamy, zdjęć produktowych i makiet UI.
- Natywna edycja wieloreferencyjna: łączenie, zamiana lub komponowanie elementów z wielu obrazów wejściowych w jednym edycie.
- Warianty do różnych zastosowań: swobodnie dostępne modele developerskie, endpoint Pro zoptymalizowany pod produkcję oraz endpoint Flex dla niskopoziomowej kontroli.
Na wysokim poziomie FLUX.2 łączy latentny rdzeń generatywny (architektura flow/transformer) z modelem wizyjno-językowym do ugruntowania semantycznego oraz nowo wytrenowanym VAE, który zapewnia współdzieloną przestrzeń ukrytą między wariantami. Taka konstrukcja pozwala modelowi zarówno generować, jak i rekonstruować (edytować) w wyższej wierności, zachowując przy tym reprezentację podatną na uczenie i dostrajanie. Szczególnie warte uwagi jest otwarte VAE, ponieważ standaryzuje przestrzeń ukrytą dla środowisk hostowanych i samo-hostowanych.
Dlaczego to ważne: sprzężenie języka i dopasowywania przepływu latentnego poprawia podążanie za podpowiedzią (dzięki czemu wieloczęściowe, kompozycyjne instrukcje zachowują się przewidywalnie), zapewnia lepszą typografię oraz jedną architekturę wspierającą zarówno generowanie, jak i edycję z wieloma referencjami. Dla twórców oznacza to bardziej niezawodne wyniki przy złożonych instrukcjach i mieszanych wejściach (tekst + obrazy).
Jak uzyskać dostęp do API FLUX.2?
Przygotowanie środowiska
Zarejestruj się i zaloguj do CometAPI, a następnie uzyskaj klucz API z panelu profilu. Idealnie, jeśli masz pewną wiedzę o API jako deweloper (zapewnimy w tym zakresie pomoc, więc nie martw się).
Będziesz także musiał wybrać preferowaną metodę wysyłania żądania oraz odpowiedni model FLUX.2.
Jakie endpointy i uwierzytelnianie są wymagane?
Replicate Predictions API zapewnia dostęp do generowania wysokiej jakości obrazów przy użyciu różnych modeli FLUX od Black Forest Labs w standardowym formacie Replicate. To API obsługuje szeroką gamę wariantów modeli FLUX, z których każdy jest zoptymalizowany pod różne zastosowania — od szybkiego prototypowania po generowanie obrazów klasy profesjonalnej. Użytkownicy mogą płynnie przełączać się między modelami, po prostu zmieniając nazwę modelu w ścieżce URL (https://api.cometapi.com/replicate/v1/models/{models}/predictions), co czyni je elastycznym dla różnych kreatywnych i komercyjnych zastosowań.
CometAPI udostępnia zarządzane endpointy pod adresem https://api.cometapi.com/flux/v1/{model} i nazywa endpointy jak flux-2-pro, flux-2-flex i flux-2-flex do tworzenia i edycji obrazów. Żądania wymagają klucza API w nagłówku x-key.
Rodzina modeli i kompromisy obliczeniowe
- FLUX.2 (otwarte wagi) — Używaj, gdy potrzebujesz lokalnej kontroli, eksperymentów badawczych lub chcesz uruchamiać wnioskowanie na własnej infrastrukturze. Dev ma otwarte wagi (32B) i doskonale nadaje się do badań eksploracyjnych oraz fine-tuningu. Jest bardziej konfigurowalny, ale odpowiedzialność za infrastrukturę i optymalizację spoczywa na tobie.
- FLUX.2 Pro — Najlepsza równowaga szybkości, jakości i kosztu w produkcji. Pro jest dostrojony pod przewidywalne opóźnienia, spójne trzymanie się podpowiedzi, szybki throughput i obsługuje do 8 obrazów referencyjnych przez API (łącznie 9 MP). Używaj do edycji na dużą skalę, gdy potrzebujesz niezawodności i przewidywalnych cen.
- FLUX.2 (zarządzany + kontrolowalność) — Udostępnia niskopoziomowe sterowanie generowaniem (np.
steps,guidance) i obsługuje więcej referencji (do 10) oraz nieco wyższą jakość/szczegółowość kosztem większej latencji i kosztu. Używaj Flex, gdy potrzebujesz ostatecznej kontroli kreatywnej — wierności typografii, dokładnych kolorów lub bardzo szczegółowych korekt kompozycji.
Prototypuj na Dev lub tanim planie Pro, a następnie migruj do Pro dla skali lub Flex dla finalnych renderów z wysoką kontrolą.
Jak korzystać z API FLUX.2?
Cykl żądania (zadanie + model odpytywania)
Odpowiedzi na żądania edycji/generowania to obiekty zadań zawierające polling_url i id; tworzysz żądanie, a następnie odpytywasz (lub używasz webhooków), aby pobrać podpisany URL wyniku. Podpisane adresy URL są krótkotrwałe (zwykle ~10 minut), więc pobieraj wyniki szybko.
Hostowane API działa w asynchronicznym modelu zadań:
- Wyślij żądanie generowania metodą POST → zwraca
task idipolling_urloraz szacowanycost. - Odpytuj
polling_url, ażstatus == "Ready", potem pobierz wynikowy obraz (często base64 lub hostowany URL).
Przykład: Python (requests) — wysłanie i odpytywanie
import time, requests, os
API_KEY = os.environ
API_URL = "https://api.cometapi.com/flux/v1/flux-2-pro"
payload = {
"prompt": "A high-end product photo of a ceramic mug on a wooden desk, soft window light.",
"width": 1024, "height": 1024, "seed": 42
}
r = requests.post(API_URL, headers={"x-key": API_KEY, "accept":"application/json"}, json=payload)
r.raise_for_status()
task = r.json()
polling_url = task
while True:
time.sleep(0.5)
status_r = requests.get(polling_url, headers={"x-key": API_KEY})
status_r.raise_for_status()
status = status_r.json()
if status == "Ready":
print("Result URL:", status)
break
elif status in ("Error", "Failed"):
print("Generation failed:", status)
break
Ten wzorzec (wyślij → odpytywanie lub webhook) to podstawowy synchroniczny/asynchroniczny przepływ dla zarządzanych endpointów.
Edycja obrazu — minimalny przykład (curl z URL wejściowym)
curl -X POST "https://api.cometapi.com/flux/v1/flux-2-pro" \
-H "accept: application/json" \
-H "x-key: $CometAPI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"prompt": "Replace the background with a sunlit seaside boardwalk, keep the person intact and match lighting",
"input_image": "",
"width": 2048,
"height": 1536
}'
Do edycji wieloreferencyjnej użyj input_image, input_image_2, input_image_3, … (Pro obsługuje do 8 referencji przez API; Flex do 10; dla Dev zalecane maksimum ~6, zależnie od pamięci).
Jakie podstawowe parametry powinienem wysłać?
Ważne pola body żądania (edycja/generowanie obrazów) obejmują:
guidanceisteps— umożliwiają precyzyjną kontrolę.prompt(string) — do 32K tokenów; szczegółowy język naturalny lub ustrukturyzowany JSON.input_image(string) — wymagane dla edycji (URL lub base64).input_image_2…input_image_9— obrazy referencyjne dla wielu źródeł.width/height— wielokrotności 16; maksymalny wynik 4 MP.seed— liczba całkowita dla powtarzalności.safety_tolerance— poziom moderacji.
Jak wykorzystać FLUX.2 Pro do profesjonalnego generowania obrazów z tekstu?
FLUX.2 Pro jest dostrojony do niezawodnych, wysokiej jakości wyników. Używaj go, gdy potrzebujesz spójnych rezultatów na poziomie marki, szybkiego czasu realizacji i korporacyjnych SLA.
Przepis na workflow — materiały produkcyjne
- Wstępnie przetwarzaj podpowiedzi: zachowaj krótką linię „intencji” plus ustrukturyzowaną sekcję atrybutów (oświetlenie, obiektyw, nastrój, kody kolorów HEX dla barw marki). FLUX.2 obsługuje sterowanie kolorami HEX, by zachować palety marki.
- Zacznij od zachowawczych ustawień domyślnych: steps 30–50 i guidance scale 6–9.0; zwiększaj steps dla detali, zwiększaj guidance, aby wynik ściślej trzymał się podpowiedzi.
- Używaj seed + deterministycznego próbkowania dla powtarzalności w testach A/B.
- Używaj endpointu Pro do wielokrotnych prób: żądaj N wariantów równolegle i wybieraj najlepsze — tańsze i szybsze niż ręczne strojenie hiperparametrów.
- Postprocess: odszumianie, drobne mapowanie tonów lub wektorowe retusze w deterministycznym pipeline. Rozważ mały GAN lub super-resolution, jeśli potrzebujesz wyższej niż natywna rozdzielczość.
Dlaczego to pomaga: Pro równoważy szybkość i wierność, a zwykle egzekwuje bezpieczeństwo/filtry treści po generowaniu, dlatego jest rozsądnym domyślnym wyborem dla zasobów kierowanych do klientów.
Najlepsze wskazówki dotyczące generowania obrazów
1. Ustrukturyzowane podpowiedzi wygrywają w produkcji. Organizuj podpowiedzi według priorytetu: temat → akcja → styl → kontekst. Używaj podpowiedzi JSON (scene, subjects, camera, lighting, color_palette), gdy potrzebujesz deterministycznej kompozycji w wielu obrazach. Przykładowe użycie schematu JSON (pseudo):
{
"scene": "product shot",
"subjects": [
{"type":"mug","pose":"center","style":"ceramic, matte"},
{"type":"background","style":"wooden desk, window light"}
],
"camera": {"focal_length":"85mm","aperture":"f2.8","angle":"slightly above"}
}
2. Powtarzalność: Przekazuj seed, aby odtworzyć wynik później. Prowadź katalog mapujący prompt + seed → obraz dla śledzenia.
3. Batch i orkiestracja: Przy dużych partiach wysyłaj wiele żądań równolegle do Pro, ale ograniczaj tempo, aby uniknąć throttlingu; preferuj endpoint Pro dla przewidywalnej latencji. Używaj kolejek zadań i puli workerów, aby szybko pobierać podpisane wyniki, gdy są gotowe.
4. Moderacja i bezpieczeństwo: Używaj safety_tolerance, by kontrolować surowość moderacji. Endpointy Pro obejmują polityki użycia i haki moderacji treści; zintegrowane sprawdzenia po stronie serwera przed publikacją.
5. Postprocessing: Wyniki Pro są wysokiej jakości, ale czasem wymagają drobnych poprawek. Zbuduj automatyczny etap postprocessu (kadrowanie, korekcja kolorów, kompozycja) w pipeline i zachowaj przegląd ręczny dla zasobów wrażliwych na markę.
Jak dostosować wyniki za pomocą endpointu FLUX.2 Flex?
Flex to wariant „chirurgiczny”: dostrajaj steps, guidance, negative prompts, rozmiary kafli i liczbę referencji, aby precyzyjnie kształtować wynik.
Kiedy wybrać Flex
- Potrzebujesz precyzyjnego renderingu typografii (makiety UI, etykiety).
- Musisz komponować wiele referencji z kontrolą nad pozą i oświetleniem.
- Eksperymentujesz z zaawansowanymi technikami podpowiedzi (ustrukturyzowane podpowiedzi, ciągi ograniczeń).
Przykład — klucze sterujące Flex i ich efekty
steps— więcej kroków = drobniejsze detale (kosztem latencji).guidance_scale— wyższe = bliżej tekstowej podpowiedzi, niższe = większa kreatywność.negative_prompt— explicite usuwa elementy (np. „no watermark, no extra fingers”).tile_size/tiled_inference— dla bardzo wysokich rozdzielczości dziel przestrzeń inferencji na kafelki, wymieniając pamięć na szybkość.reference_weights— niektóre endpointy pozwalają ważyć referencje, by uprzywilejować obraz sterujący pozą vs. stylem.
Praktyczna wskazówka: przy złożonych kompozycjach wykonaj krótki podgląd z niskim guidance, aby zweryfikować kompozycję, a następnie podnieś rozdzielczość większą liczbą steps i wyższym guidance. Ta dwuetapowa technika ogranicza koszt, a daje precyzyjny finalny wynik.
Przykład: żądanie Flex z steps i guidance
curl -X POST "https://api.bfl.ai/v1/flux-2-flex" \
-H "Content-Type: application/json" \
-H "x-key: $BFL_API_KEY" \
-d '{
"prompt": "Cinematic movie poster, bold typography at top, main character centered, dramatic rim lighting",
"width": 1536, "height": 2048,
"steps": 50,
"guidance": 7.5,
"seed": 99999
}'
Wskazówka: Używaj Flex podczas finalnych akceptacji kreatywnych, a Pro do szybszych pipeline’ów na dużą skalę. Flex jest zauważalnie bardziej sterowalny w zadaniach typografii i mikrodetali.
Najlepsze praktyki dla zastosowań produkcyjnych
Poniżej sprawdzone w boju wzorce i pragmatyczne porady dotyczące integracji FLUX.2 na skalę.
1) Kontroluj koszt, śledząc megapiksele i cache’ując
Rozliczanie FLUX.2 opiera się na megapikselach wejścia + wyjścia. Przy generowaniu na dużą skalę preferuj mniejsze rendery podglądowe (niskie rozdzielczości, szybkie steps) i eskaluj do wyższych MP tylko dla finalnych renderów. Cache’uj wygenerowane zasoby (lub przechowuj diffs), aby nie renderować identycznych zadań ponownie. Zawsze pokazuj cost w odpowiedziach i loguj go per żądanie.
2) Mądre użycie warstw: podgląd vs. render finalny
- Uruchamiaj szybkie, niskokrokowe rendery Pro do prototypowania lub wielu wariantów.
- Używaj Flex lub wysokich MP w Pro do finalnie zatwierdzonych wyników, gdzie wierność ma znaczenie. To hybrydowe podejście równoważy przepustowość i jakość obrazu.
3) Inżynieria podpowiedzi → ustrukturyzowane podpowiedzi i JSON
Wykorzystuj ustrukturyzowane podpowiedzi JSON gdy potrzebujesz deterministycznej kompozycji (obiekty sceny, kamera, pozy, próbki kolorów HEX). To redukuje iteracje i prowadzi do bardziej powtarzalnych serii. Przykłady Cloudflare pokazują podpowiedzi JSON osadzone w multipart forms.
4) Seed + wersjonowanie dla powtarzalności
Gdy potrzebujesz powtarzalnych wyników, przekazuj seed i zapisuj wersję modelu/znacznik czasu w metadanych. Dla deterministycznych pipeline’ów zasobów utrzymuj manifest: podpowiedź, seed, wariant modelu, rozdzielczość, hashe obrazów referencyjnych. To poprawia śledzenie i opcje rollbacku.
Podsumowanie
FLUX.2 celuje w zmniejszenie dystansu między „imponującym demem” a „produkcyjnym narzędziem kreatywnym”. Dzięki edycji wieloreferencyjnej, wysokiej rozdzielczości wyników i zestawowi hostowanych endpointów (plus otwarty kod inferencji i skwantyzowane wersje konsumenckie) daje zespołom wiele praktycznych opcji: uruchamiaj lokalnie na potrzeby badań i personalizacji albo używaj hostowanych endpointów Pro/Flex do stabilnych pipeline’ów produkcyjnych.
Deweloperzy mogą uzyskać dostęp do Flux.2 Dev API, Flux.2 Flex API oraz Flux.2 Pro API poprzez CometAPI. Aby zacząć, odkryj możliwości modeli CometAPI w Playground i zapoznaj się z API guide po szczegóły. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i pozyskałeś klucz API. CometAPI oferuje cenę znacznie niższą niż oficjalna, aby ułatwić integrację.
Ready to Go?→ Zarejestruj się w CometAPI już dziś!
Jeśli chcesz poznawać więcej wskazówek, poradników i nowości o AI, obserwuj nas na VK, X i Discord!
