Odniesienie do wielu obrazów z Flux.1 Kontext: przewodnik krok po kroku

CometAPI
AnnaAug 1, 2025
Odniesienie do wielu obrazów z Flux.1 Kontext: przewodnik krok po kroku

Funkcja „referencji wieloobrazowej” w Flux.1 Kontext stanowi zmianę paradygmatu w sposobie, w jaki procesy edycji i generowania obrazów oparte na sztucznej inteligencji obsługują wiele danych wejściowych. Umożliwiając twórcom jednoczesne wprowadzanie kilku obrazów referencyjnych, Flux.1 Kontext może zachować spójny styl, pozę i oświetlenie we wszystkich danych wejściowych, co umożliwia ujednolicone edycje wsadowe, spójne transfery stylu i złożone kompozycje scen. Poniżej omawiamy podstawy, najnowsze osiągnięcia i najlepsze praktyki w zakresie opanowania przetwarzania referencji wieloobrazowych w Flux Kontext.

Czym jest Flux.1 Kontext i dlaczego zmienia edycję obrazu?

Flux.1 Kontext to najnowsze osiągnięcie w dziedzinie multimodalnego generowania i edycji obrazów, oparte na serii modeli transformatorów przepływowych Flux. Modele Flux – opracowane przez Black Forest Labs – bazują na rektyfikowanych blokach transformatorów przepływowych, skalując do 12 miliardów parametrów, aby zapewnić wysoką wierność syntezy i edycji tekstu na obraz. W przeciwieństwie do tradycyjnych potoków przetwarzania tekstu na obraz, Flux.1 Kontext rozszerza te podstawy, umożliwiając… w kontekście edycja: użytkownicy mogą dostarczać nie tylko podpowiedzi tekstowe, ale także jeden lub więcej obrazów referencyjnych, umożliwiając modelowi semantyczne zrozumienie koncepcji wizualnych i zastosowanie ich w nowych wynikach.

Znaczenie Flux.1 Kontext leży w jego ujednoliconej architekturze, zwanej dopasowanie przepływu generatywnego—który obsługuje oba lokalne edycje (np. zmiana koloru obiektu na zdjęciu) i globalne transformacje (np. generowanie nowych widoków sceny) w ramach jednego modelu. Eliminuje to potrzebę oddzielnych modeli edycji i generowania, usprawniając przepływy pracy i ograniczając przełączanie kontekstów dla profesjonalistów kreatywnych.


Jakie są różne warianty Flux.1 Kontext?

Flux.1 Kontext występuje w trzech głównych wariantach, z których każdy przeznaczony jest do innego zastosowania i modelu licencjonowania:

  1. Flux.1Kontext Dev:Model dostępny w formacie źródłowym na licencji niekomercyjnej, przeznaczony przede wszystkim do eksperymentów i integracji z lokalnymi przepływami pracy obsługiwanymi przez procesory GPU.
  2. Flux.1 Kontext Pro:Opatentowany model z dostępem przez API, oferujący wydajność na poziomie przemysłowym, spójne wyniki i wsparcie komercyjne.
  3. Flux.1 Kontext Max:Wersja premium z ulepszoną obsługą typografii, maksymalną przepustowością i poprawioną wiernością odwzorowania przypadków brzegowych.

Łącznie te warianty gwarantują, że zarówno badacze, jak i użytkownicy korporacyjni mogą korzystać z edycji multimodalnej, niezależnie od tego, czy priorytetem jest dla nich możliwość dostosowania, czy stabilność produkcji.

Czym jest „odniesienie wieloobrazowe” w Flux.1 Kontext?

Referencja wieloobrazowa odnosi się do procesu dostarczania wielu przykładowych obrazów do modelu AI, aby mógł on wywnioskować wspólne cechy – takie jak styl, oświetlenie czy tożsamość obiektu – i zastosować spójne edycje lub wygenerować nową treść, która uwzględnia te atrybuty we wszystkich danych wejściowych. W przeciwieństwie do warunkowania pojedynczego obrazu, to podejście umożliwia twórcom egzekwowanie jednolitości w partiach danych wyjściowych, redukując ręczne poprawki i zapewniając spójność wizualną.

W jaki sposób Flux.1Kontext implementuje odniesienie do wielu obrazów?

Podstawą możliwości wieloobrazowych Flux.1 Kontext jest jego dopasowanie przepływu Zamiast traktować każdy obraz referencyjny w izolacji, Flux.1 Kontext łączy osadzenia obrazów i tokeny tekstowe w ujednoliconą sekwencję. Następnie dopasowujący przepływ oparty na transformatorach moduł uczy się wyrównywać i scalać te osadzenia w przestrzeni ukrytej, skutecznie rejestrując zarówno indywidualną, jak i łączną semantykę wizualną.

Konwencjonalne podejścia wieloreferencyjne często uśredniają osadzenia lub wymagają precyzyjnego dostrajania (np. LoRA). Podejście dopasowywania przepływu w Flux.1 Kontext:

  • Zachowuje spójność w wielu turach, zachowując tożsamość i styl obiektów.
  • Zmniejsza degradację, co jest powszechne w iteracyjnych procesach edycji.
  • Obsługuje interaktywne stawki, umożliwiając podgląd w aplikacjach niemal w czasie rzeczywistym.

Jakie przepływy pracy umożliwiają integrację wielu obrazów z Flux.1 Kontext?

Konstrukcja Flux.1 Kontext zapewnia bezproblemową integrację zarówno z interfejsem graficznym, jak i z procesami opartymi na kodzie:

Integracja ComfyUI

Wykorzystując interfejs węzłowy ComfyUI, użytkownicy mogą wprowadzać wiele obrazów referencyjnych bezpośrednio do dedykowanego węzła „Flux.1 Kontext Dev”. Węzeł ten akceptuje listę obrazów wraz z monitem tekstowym, generując ujednolicony wykres dyfuzji. Istnieją dwa główne tryby:

  • Tryb łączenia:Sekwencyjne dodawanie osadzenia, idealne do prostych zadań złożonych.
  • Tryb krzyżowej uwagi:Przeplata mapy uwagi w celu głębszego łączenia semantyki, co jest preferowane w przypadku złożonych połączeń stylów.
    Szybkie triki, takie jak określanie grubości poszczególnych obrazów i tokenów łączenia szwów, pomagają zapobiegać przesunięciom kolorów i widocznym połączeniom ().

Podejście API-First (Replicate, CometAPI)

Programiści mogą wchodzić w interakcję z Flux.1 Kontext Max lub Pro za pośrednictwem punktów końcowych RESTful. Schemat API zazwyczaj obejmuje:

   {
     "input_images": ,
     "prompt": "Describe the desired transformation",
     "options": { "blend_strength": 0.8, "seed": 42 }
   }

Obsługa Playground i SDK w językach JavaScript, Python i Go ułatwia włączanie warunkowania wieloobrazowego do aplikacji internetowych lub mobilnych.

Odniesienie do wielu obrazów z interfejsem API Flux.Kontext firmy CometAPI

Poniżej znajduje się przewodnik krok po kroku dotyczący przesyłania żądań referencyjnych obejmujących wiele obrazów do interfejsu API FLUX 1 Kontext. Obejmuje on uwierzytelnianie, konstrukcję żądania (z dwoma obrazami referencyjnymi), obsługę wyników i najlepsze praktyki.


1. Jak uwierzytelnić się za pomocą interfejsu API FLUX.1 Kontext?

Jeśli korzystasz z hostowanych aplikacji FLUX 1 Kontext firmy Replicate, zaloguj się w Replicate → Twoje konto → Tokeny API.

Uzyskaj swój klucz API: Zarejestruj się i zaloguj Interfejs API Comet, pobierz swój token okaziciela z pulpitu nawigacyjnego.

Umieść klucz w nagłówku Authorization: Token YOUR_API_TOKEN lub w przypadku interfejsów API typu nośnika: Authorization: Bearer YOUR_API_TOKEN


2. Który punkt końcowy obsługuje łączenie dwóch obrazów?

W przypadku modelu „połącz dwa obrazy” w replice (flux-kontext-apps/multi-image-kontext-pro), wyślij swoje POST-y na adres:

https://api.replicate.com/v1/predictions

W przypadku zarządzanego API CometAPI będzie to:

https://api.cometapi.com/replicate/v1/models/black-forest-labs/flux-kontext-max/predictions

Uwaga: w CometAPI tylko flux-kontext obsługuje wiele odwołań do obrazów. Aby wywołać następujące różne modele, należy zamienić nazwę modelu po modelu w adresie URL:
black-forest-labs/flux-kontext-max
black-forest-labs/flux-kontext-pro

Oba punkty końcowe oczekują ładunku JSON zawierającego prompt, input_image_1, input_image_2 .


3. Jak wygląda ładunek żądania?

Poniżej znajduje się minimalny schemat JSON, zgodnie z dokumentacją multi-image-kontext-pro:

PoleTypOPIS
promptciągOpis tekstowy sposobu łączenia lub przekształcania dwóch obrazów wejściowych
input_image_1ciągAdres URL lub dane URI Base64 pierwszego obrazu (JPEG/PNG/WebP/GIF)
input_image_2ciągAdres URL lub URI danych Base64 drugiego obrazu
aspect_ratiowyliczanie(opcjonalne) match_input, 1:1, 16:9, itd. Domyślnie match_input

Wskazówka: Możesz przekazywać publicznie hostowane adresy URL lub wbudowane identyfikatory URI danych Base64 — Base64 jest wygodny w przypadku jednorazowych skryptów, ale może spowalniać bardzo duże pliki.

Teraz CometAPI obsługuje przesyłanie maksymalnie 4 obrazów referencyjnych (wcześniej obsługiwany był tylko jeden obraz)


4. Jak wysłać żądanie obejmujące wiele obrazów za pomocą cURL?

curl https://api.replicate.com/v1/predictions \
  -H "Authorization: Token $REPLICATE_API_TOKEN" \
  -H "Content-Type: application/json" \
  -d '{
    "version": "multi-image-kontext-pro:f3545943bdffdf06420f0d8ececf86a36ce401b9df0ad5ec0124234c0665cfed",
    "input": {
      "prompt": "Blend the lighting from image1 with the background of image2, preserving color harmony",
      "input_image_1": "https://example.com/portrait1.png",
      "input_image_2": "https://example.com/background2.jpg",
      "aspect_ratio": "match_input"
    }
  }'
  • Wymienić version pole z najnowszym identyfikatorem wersji modelu z Replicate.
  • W CometAPI zamień je /predict punkt końcowy i użycie "file": { ... } zgodnie z ich dokumentacją.

5. Jak mogę zrobić to samo w Pythonie?

import requests

API_TOKEN = "YOUR_API_TOKEN"
headers = {
    "Authorization": f"Token {API_TOKEN}",
    "Content-Type": "application/json",
}

payload = {
    "version": "multi-image-kontext-pro:f3545943bdffdf06420f0d8ececf86a36ce401b9df0ad5ec0124234c0665cfed",
    "input": {
        "prompt": "Combine the style of image1 with the content of image2, matching lighting and mood",
        "input_image_1": "https://my-bucket.s3.amazonaws.com/imgA.png",
        "input_image_2": "https://my-bucket.s3.amazonaws.com/imgB.png",
        "aspect_ratio": "match_input"
    },
}

resp = requests.post("https://api.replicate.com/v1/predictions", json=payload, headers=headers)
resp.raise_for_status()
data = resp.json()
print("🖼️ Output URL:", data)
  • Sprawdź data (“rozpoczęcie” → “przetwarzanie” → “powodzenie”), aby przeprowadzać sondowanie, aż do momentu zakończenia gotowości.

6. Jak obsłużyć i wyświetlić wynik?

Po zakończeniu przewidywania model zwraca identyfikator URI do połączonego obrazu:

{  
  "id": "...",  
  "status": "succeeded",  
  "output": "https://.../result.png"  
}

Pobierz ten adres URL (lub osadź go bezpośrednio w swojej aplikacji/interfejsie użytkownika).

Jak maksymalizować rezultaty: najlepsze praktyki?

Które zdjęcia referencyjne należy wybrać?

  • Jednorodność:Wybieraj obrazy o spójnym stylu, skali obiektu i oświetleniu, aby uzyskać optymalną jednolitość.
  • Różnorodność dla transferu stylu:Wdrażając nowy styl, dołącz różnorodne przykłady prezentujące pełną gamę pożądanych efektów.
  • Wejścia o wysokiej rozdzielczości:Lepsza jakość odniesień daje wyraźniejsze wyniki generatywne, zwłaszcza w przypadku drobnych szczegółów, takich jak tekstury i rysy twarzy.
  • Ograniczenia rozmiaru obrazu: Utrzymuj rozmiar każdego wejścia poniżej 10 MB (standard replikacji), aby uniknąć przekroczenia limitu czasu.
  • Formaty: Najlepiej sprawdzają się formaty JPEG, PNG, GIF i WebP; należy unikać egzotycznych formatów.

Szybka inżynieria:

  • Wyraźnie: „zachowaj rysy twarzy z obrazka 1”
  • Użyj ważenia: „priorytet obrazu 1 wysoki, priorytet obrazu 2 niski”
  • Ograniczenia stawek: Sprawdź limity QPS swojego planu i ostrożnie przetwarzaj żądania zbiorcze.

Jak zacząć

CometAPI to ujednolicona platforma API, która agreguje ponad 500 modeli AI od wiodących dostawców — takich jak seria GPT firmy OpenAI, Gemini firmy Google, Claude firmy Anthropic, Midjourney, Suno i innych — w jednym, przyjaznym dla programistów interfejsie. Oferując spójne uwierzytelnianie, formatowanie żądań i obsługę odpowiedzi, CometAPI radykalnie upraszcza integrację możliwości AI z aplikacjami. Niezależnie od tego, czy tworzysz chatboty, generatory obrazów, kompozytorów muzycznych czy oparte na danych potoki analityczne, CometAPI pozwala Ci szybciej iterować, kontrolować koszty i pozostać niezależnym od dostawcy — wszystko to przy jednoczesnym korzystaniu z najnowszych przełomów w ekosystemie AI.

Deweloperzy mogą uzyskać dostęp Kontekst FLUX.1 (Model: flux-kontext-pro ; flux-kontext-max) Poprzez Interfejs API CometNajnowsze wersje modeli podane są na dzień publikacji artykułu. Na początek zapoznaj się z możliwościami modelu w Plac zabaw i zapoznaj się z Przewodnik po API aby uzyskać szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API. Interfejs API Comet zaoferuj cenę znacznie niższą niż oficjalna, aby ułatwić Ci integrację.


Podsumowanie

Odwoływanie się do wielu obrazów za pomocą FLUX 1 Kontext stanowi zmianę paradygmatu w generatywnych przepływach pracy AI. Dzięki ujednoliceniu tekstu i wielu danych wizualnych w ramach jednej architektury dopasowującej przepływ, twórcom umożliwia osiąganie złożonych, spójnych rezultatów w mniejszej liczbie kroków. Ostatnie przełomy – od węzła Image Stitch w ComfyUI, przez optymalizację kwantyzacji o niskiej precyzji, po API CometAPI – radykalnie zwiększyły dostępność, wydajność i potencjał twórczy przetwarzania wielu obrazów.

SHARE THIS BLOG

500+ modeli w jednym API

Do 20% zniżki