Jak korzystać z Flux.2 API? Wszystko, co musisz wiedzieć

CometAPI
AnnaNov 27, 2025
Jak korzystać z Flux.2 API? Wszystko, co musisz wiedzieć

FLUX.2 to druga generacja rodziny modeli Black Forest Labs do generowania i edycji obrazów (wydana 25 listopada 2025 r.). Zapewnia fotorealizm klasy produkcyjnej, edycję wieloreferencyjną do 4 MP, ustrukturyzowane/JSON-owe podpowiedzi oraz wybór zarządzanych endpointów (Pro, Flex) i opcji z otwartymi wagami (Dev).

Dobra wiadomość jest taka, że CometAPI zintegrowało API Flux.2. Ten przewodnik wyjaśnia, czym jest FLUX.2, jak wywoływać API oraz zaawansowane przepływy pracy (tekst→obraz, elastyczna kontrola, edycja wieloreferencyjna), wraz z przykładami kodu i najlepszymi praktykami.

Czym jest FLUX.2 i dlaczego ma to znaczenie?

FLUX.2 to kontynuacja rodziny modeli FLUX — zaprojektowana do generowania obrazów z tekstu o wysokiej wierności i wieloreferencyjnej edycji obrazów w rozdzielczościach produkcyjnych (do ~4 megapikseli). FLUX.2 powstał z myślą o rzeczywistych przepływach pracy twórczej (zasoby bezpieczne dla marki, spójne postaci i style między referencjami, lepsza typografia i drobne detale), a nie o demach, i ma na celu zmniejszenie różnicy między obrazami generowanymi a rzeczywistymi.

Kluczowe rezultaty, do których dąży FLUX.2

  • Fotorealistyczne wyniki odpowiednie do reklamy, zdjęć produktowych i makiet UI.
  • Natywna edycja wieloreferencyjna: łączenie, zamiana lub komponowanie elementów z wielu obrazów wejściowych w jednym edycie.
  • Warianty do różnych zastosowań: swobodnie dostępne modele developerskie, endpoint Pro zoptymalizowany pod produkcję oraz endpoint Flex dla niskopoziomowej kontroli.

Na wysokim poziomie FLUX.2 łączy latentny rdzeń generatywny (architektura flow/transformer) z modelem wizyjno-językowym do ugruntowania semantycznego oraz nowo wytrenowanym VAE, który zapewnia współdzieloną przestrzeń ukrytą między wariantami. Taka konstrukcja pozwala modelowi zarówno generować, jak i rekonstruować (edytować) w wyższej wierności, zachowując przy tym reprezentację podatną na uczenie i dostrajanie. Szczególnie warte uwagi jest otwarte VAE, ponieważ standaryzuje przestrzeń ukrytą dla środowisk hostowanych i samo-hostowanych.

Dlaczego to ważne: sprzężenie języka i dopasowywania przepływu latentnego poprawia podążanie za podpowiedzią (dzięki czemu wieloczęściowe, kompozycyjne instrukcje zachowują się przewidywalnie), zapewnia lepszą typografię oraz jedną architekturę wspierającą zarówno generowanie, jak i edycję z wieloma referencjami. Dla twórców oznacza to bardziej niezawodne wyniki przy złożonych instrukcjach i mieszanych wejściach (tekst + obrazy).

Jak uzyskać dostęp do API FLUX.2?

Przygotowanie środowiska

Zarejestruj się i zaloguj do CometAPI, a następnie uzyskaj klucz API z panelu profilu. Idealnie, jeśli masz pewną wiedzę o API jako deweloper (zapewnimy w tym zakresie pomoc, więc nie martw się).

Będziesz także musiał wybrać preferowaną metodę wysyłania żądania oraz odpowiedni model FLUX.2.

Jakie endpointy i uwierzytelnianie są wymagane?

Replicate Predictions API zapewnia dostęp do generowania wysokiej jakości obrazów przy użyciu różnych modeli FLUX od Black Forest Labs w standardowym formacie Replicate. To API obsługuje szeroką gamę wariantów modeli FLUX, z których każdy jest zoptymalizowany pod różne zastosowania — od szybkiego prototypowania po generowanie obrazów klasy profesjonalnej. Użytkownicy mogą płynnie przełączać się między modelami, po prostu zmieniając nazwę modelu w ścieżce URL (https://api.cometapi.com/replicate/v1/models/{models}/predictions), co czyni je elastycznym dla różnych kreatywnych i komercyjnych zastosowań.

CometAPI udostępnia zarządzane endpointy pod adresem https://api.cometapi.com/flux/v1/{model} i nazywa endpointy jak flux-2-pro, flux-2-flex i flux-2-flex do tworzenia i edycji obrazów. Żądania wymagają klucza API w nagłówku x-key.

Rodzina modeli i kompromisy obliczeniowe

  • FLUX.2 (otwarte wagi) — Używaj, gdy potrzebujesz lokalnej kontroli, eksperymentów badawczych lub chcesz uruchamiać wnioskowanie na własnej infrastrukturze. Dev ma otwarte wagi (32B) i doskonale nadaje się do badań eksploracyjnych oraz fine-tuningu. Jest bardziej konfigurowalny, ale odpowiedzialność za infrastrukturę i optymalizację spoczywa na tobie.
  • FLUX.2 Pro — Najlepsza równowaga szybkości, jakości i kosztu w produkcji. Pro jest dostrojony pod przewidywalne opóźnienia, spójne trzymanie się podpowiedzi, szybki throughput i obsługuje do 8 obrazów referencyjnych przez API (łącznie 9 MP). Używaj do edycji na dużą skalę, gdy potrzebujesz niezawodności i przewidywalnych cen.
  • FLUX.2 (zarządzany + kontrolowalność) — Udostępnia niskopoziomowe sterowanie generowaniem (np. steps, guidance) i obsługuje więcej referencji (do 10) oraz nieco wyższą jakość/szczegółowość kosztem większej latencji i kosztu. Używaj Flex, gdy potrzebujesz ostatecznej kontroli kreatywnej — wierności typografii, dokładnych kolorów lub bardzo szczegółowych korekt kompozycji.

Prototypuj na Dev lub tanim planie Pro, a następnie migruj do Pro dla skali lub Flex dla finalnych renderów z wysoką kontrolą.

Jak korzystać z API FLUX.2?

Cykl żądania (zadanie + model odpytywania)

Odpowiedzi na żądania edycji/generowania to obiekty zadań zawierające polling_url i id; tworzysz żądanie, a następnie odpytywasz (lub używasz webhooków), aby pobrać podpisany URL wyniku. Podpisane adresy URL są krótkotrwałe (zwykle ~10 minut), więc pobieraj wyniki szybko.

Hostowane API działa w asynchronicznym modelu zadań:

  1. Wyślij żądanie generowania metodą POST → zwraca task id i polling_url oraz szacowany cost.
  2. Odpytuj polling_url, aż status == "Ready", potem pobierz wynikowy obraz (często base64 lub hostowany URL).

Przykład: Python (requests) — wysłanie i odpytywanie

import time, requests, os

API_KEY = os.environ
API_URL = "https://api.cometapi.com/flux/v1/flux-2-pro"

payload = {
    "prompt": "A high-end product photo of a ceramic mug on a wooden desk, soft window light.",
    "width": 1024, "height": 1024, "seed": 42
}

r = requests.post(API_URL, headers={"x-key": API_KEY, "accept":"application/json"}, json=payload)
r.raise_for_status()
task = r.json()
polling_url = task

while True:
    time.sleep(0.5)
    status_r = requests.get(polling_url, headers={"x-key": API_KEY})
    status_r.raise_for_status()
    status = status_r.json()
    if status == "Ready":
        print("Result URL:", status)
        break
    elif status in ("Error", "Failed"):
        print("Generation failed:", status)
        break

Ten wzorzec (wyślij → odpytywanie lub webhook) to podstawowy synchroniczny/asynchroniczny przepływ dla zarządzanych endpointów.

Edycja obrazu — minimalny przykład (curl z URL wejściowym)

curl -X POST "https://api.cometapi.com/flux/v1/flux-2-pro" \
  -H "accept: application/json" \
  -H "x-key: $CometAPI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "prompt": "Replace the background with a sunlit seaside boardwalk, keep the person intact and match lighting",
    "input_image": "![image](https://example.com/my-photo.jpg)",
    "width": 2048,
    "height": 1536
  }'

Do edycji wieloreferencyjnej użyj input_image, input_image_2, input_image_3, … (Pro obsługuje do 8 referencji przez API; Flex do 10; dla Dev zalecane maksimum ~6, zależnie od pamięci).

Jakie podstawowe parametry powinienem wysłać?

Ważne pola body żądania (edycja/generowanie obrazów) obejmują:

  • guidance i steps — umożliwiają precyzyjną kontrolę.
  • prompt (string) — do 32K tokenów; szczegółowy język naturalny lub ustrukturyzowany JSON.
  • input_image (string) — wymagane dla edycji (URL lub base64).
  • input_image_2input_image_9 — obrazy referencyjne dla wielu źródeł.
  • width / height — wielokrotności 16; maksymalny wynik 4 MP.
  • seed — liczba całkowita dla powtarzalności.
  • safety_tolerance — poziom moderacji.

Jak wykorzystać FLUX.2 Pro do profesjonalnego generowania obrazów z tekstu?

FLUX.2 Pro jest dostrojony do niezawodnych, wysokiej jakości wyników. Używaj go, gdy potrzebujesz spójnych rezultatów na poziomie marki, szybkiego czasu realizacji i korporacyjnych SLA.

Przepis na workflow — materiały produkcyjne

  1. Wstępnie przetwarzaj podpowiedzi: zachowaj krótką linię „intencji” plus ustrukturyzowaną sekcję atrybutów (oświetlenie, obiektyw, nastrój, kody kolorów HEX dla barw marki). FLUX.2 obsługuje sterowanie kolorami HEX, by zachować palety marki.
  2. Zacznij od zachowawczych ustawień domyślnych: steps 30–50 i guidance scale 6–9.0; zwiększaj steps dla detali, zwiększaj guidance, aby wynik ściślej trzymał się podpowiedzi.
  3. Używaj seed + deterministycznego próbkowania dla powtarzalności w testach A/B.
  4. Używaj endpointu Pro do wielokrotnych prób: żądaj N wariantów równolegle i wybieraj najlepsze — tańsze i szybsze niż ręczne strojenie hiperparametrów.
  5. Postprocess: odszumianie, drobne mapowanie tonów lub wektorowe retusze w deterministycznym pipeline. Rozważ mały GAN lub super-resolution, jeśli potrzebujesz wyższej niż natywna rozdzielczość.

Dlaczego to pomaga: Pro równoważy szybkość i wierność, a zwykle egzekwuje bezpieczeństwo/filtry treści po generowaniu, dlatego jest rozsądnym domyślnym wyborem dla zasobów kierowanych do klientów.

Najlepsze wskazówki dotyczące generowania obrazów

1. Ustrukturyzowane podpowiedzi wygrywają w produkcji. Organizuj podpowiedzi według priorytetu: temat → akcja → styl → kontekst. Używaj podpowiedzi JSON (scene, subjects, camera, lighting, color_palette), gdy potrzebujesz deterministycznej kompozycji w wielu obrazach. Przykładowe użycie schematu JSON (pseudo):

{
  "scene": "product shot",
  "subjects": [
    {"type":"mug","pose":"center","style":"ceramic, matte"},
    {"type":"background","style":"wooden desk, window light"}
  ],
  "camera": {"focal_length":"85mm","aperture":"f2.8","angle":"slightly above"}
}

2. Powtarzalność: Przekazuj seed, aby odtworzyć wynik później. Prowadź katalog mapujący prompt + seed → obraz dla śledzenia.

3. Batch i orkiestracja: Przy dużych partiach wysyłaj wiele żądań równolegle do Pro, ale ograniczaj tempo, aby uniknąć throttlingu; preferuj endpoint Pro dla przewidywalnej latencji. Używaj kolejek zadań i puli workerów, aby szybko pobierać podpisane wyniki, gdy są gotowe.

4. Moderacja i bezpieczeństwo: Używaj safety_tolerance, by kontrolować surowość moderacji. Endpointy Pro obejmują polityki użycia i haki moderacji treści; zintegrowane sprawdzenia po stronie serwera przed publikacją.

5. Postprocessing: Wyniki Pro są wysokiej jakości, ale czasem wymagają drobnych poprawek. Zbuduj automatyczny etap postprocessu (kadrowanie, korekcja kolorów, kompozycja) w pipeline i zachowaj przegląd ręczny dla zasobów wrażliwych na markę.

Jak dostosować wyniki za pomocą endpointu FLUX.2 Flex?

Flex to wariant „chirurgiczny”: dostrajaj steps, guidance, negative prompts, rozmiary kafli i liczbę referencji, aby precyzyjnie kształtować wynik.

Kiedy wybrać Flex

  • Potrzebujesz precyzyjnego renderingu typografii (makiety UI, etykiety).
  • Musisz komponować wiele referencji z kontrolą nad pozą i oświetleniem.
  • Eksperymentujesz z zaawansowanymi technikami podpowiedzi (ustrukturyzowane podpowiedzi, ciągi ograniczeń).

Przykład — klucze sterujące Flex i ich efekty

  • steps — więcej kroków = drobniejsze detale (kosztem latencji).
  • guidance_scale — wyższe = bliżej tekstowej podpowiedzi, niższe = większa kreatywność.
  • negative_prompt — explicite usuwa elementy (np. „no watermark, no extra fingers”).
  • tile_size / tiled_inference — dla bardzo wysokich rozdzielczości dziel przestrzeń inferencji na kafelki, wymieniając pamięć na szybkość.
  • reference_weights — niektóre endpointy pozwalają ważyć referencje, by uprzywilejować obraz sterujący pozą vs. stylem.

Praktyczna wskazówka: przy złożonych kompozycjach wykonaj krótki podgląd z niskim guidance, aby zweryfikować kompozycję, a następnie podnieś rozdzielczość większą liczbą steps i wyższym guidance. Ta dwuetapowa technika ogranicza koszt, a daje precyzyjny finalny wynik.

Przykład: żądanie Flex z steps i guidance

curl -X POST "https://api.bfl.ai/v1/flux-2-flex" \
  -H "Content-Type: application/json" \
  -H "x-key: $BFL_API_KEY" \
  -d '{
    "prompt": "Cinematic movie poster, bold typography at top, main character centered, dramatic rim lighting",
    "width": 1536, "height": 2048,
    "steps": 50,
    "guidance": 7.5,
    "seed": 99999
  }'

Wskazówka: Używaj Flex podczas finalnych akceptacji kreatywnych, a Pro do szybszych pipeline’ów na dużą skalę. Flex jest zauważalnie bardziej sterowalny w zadaniach typografii i mikrodetali.

Najlepsze praktyki dla zastosowań produkcyjnych

Poniżej sprawdzone w boju wzorce i pragmatyczne porady dotyczące integracji FLUX.2 na skalę.

1) Kontroluj koszt, śledząc megapiksele i cache’ując

Rozliczanie FLUX.2 opiera się na megapikselach wejścia + wyjścia. Przy generowaniu na dużą skalę preferuj mniejsze rendery podglądowe (niskie rozdzielczości, szybkie steps) i eskaluj do wyższych MP tylko dla finalnych renderów. Cache’uj wygenerowane zasoby (lub przechowuj diffs), aby nie renderować identycznych zadań ponownie. Zawsze pokazuj cost w odpowiedziach i loguj go per żądanie.

2) Mądre użycie warstw: podgląd vs. render finalny

  • Uruchamiaj szybkie, niskokrokowe rendery Pro do prototypowania lub wielu wariantów.
  • Używaj Flex lub wysokich MP w Pro do finalnie zatwierdzonych wyników, gdzie wierność ma znaczenie. To hybrydowe podejście równoważy przepustowość i jakość obrazu.

3) Inżynieria podpowiedzi → ustrukturyzowane podpowiedzi i JSON

Wykorzystuj ustrukturyzowane podpowiedzi JSON gdy potrzebujesz deterministycznej kompozycji (obiekty sceny, kamera, pozy, próbki kolorów HEX). To redukuje iteracje i prowadzi do bardziej powtarzalnych serii. Przykłady Cloudflare pokazują podpowiedzi JSON osadzone w multipart forms.

4) Seed + wersjonowanie dla powtarzalności

Gdy potrzebujesz powtarzalnych wyników, przekazuj seed i zapisuj wersję modelu/znacznik czasu w metadanych. Dla deterministycznych pipeline’ów zasobów utrzymuj manifest: podpowiedź, seed, wariant modelu, rozdzielczość, hashe obrazów referencyjnych. To poprawia śledzenie i opcje rollbacku.

Podsumowanie

FLUX.2 celuje w zmniejszenie dystansu między „imponującym demem” a „produkcyjnym narzędziem kreatywnym”. Dzięki edycji wieloreferencyjnej, wysokiej rozdzielczości wyników i zestawowi hostowanych endpointów (plus otwarty kod inferencji i skwantyzowane wersje konsumenckie) daje zespołom wiele praktycznych opcji: uruchamiaj lokalnie na potrzeby badań i personalizacji albo używaj hostowanych endpointów Pro/Flex do stabilnych pipeline’ów produkcyjnych.

Deweloperzy mogą uzyskać dostęp do Flux.2 Dev API, Flux.2 Flex API oraz Flux.2 Pro API poprzez CometAPI. Aby zacząć, odkryj możliwości modeli CometAPI w Playground i zapoznaj się z API guide po szczegóły. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i pozyskałeś klucz API. CometAPI oferuje cenę znacznie niższą niż oficjalna, aby ułatwić integrację.

Ready to Go?→ Zarejestruj się w CometAPI już dziś!

Jeśli chcesz poznawać więcej wskazówek, poradników i nowości o AI, obserwuj nas na VK, X i Discord!

Gotowy na obniżenie kosztów rozwoju AI o 20%?

Zacznij za darmo w kilka minut. Dołączone kredyty na bezpłatny okres próbny. Karta kredytowa nie jest wymagana.

Czytaj więcej