De "multi-image reference"-functionaliteit van Flux.1 Kontext vertegenwoordigt een paradigmaverschuiving in de manier waarop AI-gestuurde workflows voor beeldbewerking en -generatie omgaan met meerdere visuele inputs. Door makers in staat te stellen meerdere referentiebeelden tegelijkertijd in te voeren, kan Flux.1 Kontext een coherente stijl, pose en belichting behouden voor alle inputs, wat uniforme batchbewerkingen, consistente stijloverdracht en complexe scènecomposities mogelijk maakt. Hieronder bespreken we de basisprincipes, recente doorbraken en best practices voor het beheersen van multi-image reference processing met Flux Kontext.
Wat is Flux.1 Kontext en waarom verandert het de beeldbewerking?
Flux.1 Kontext vertegenwoordigt de nieuwste ontwikkeling in multimodale beeldgeneratie en -bewerking, gebaseerd op de Flux-serie van flow-gebaseerde transformatormodellen. Flux-modellen – ontwikkeld door Black Forest Labs – zijn gebaseerd op gelijkgerichte flow-transformatorblokken en schalen op tot 12 miljard parameters voor hoogwaardige tekst-naar-beeldsynthese en -bewerking. In tegenstelling tot traditionele tekst-naar-beeld-pipelines, breidt Flux.1 Kontext deze basis uit door: in context Bewerken: gebruikers kunnen niet alleen tekstuele aanwijzingen geven, maar ook een of meer referentieafbeeldingen. Hierdoor kan het model visuele concepten semantisch begrijpen en deze toepassen op nieuwe uitkomsten.
Het belang van Flux.1 Kontext ligt in de uniforme architectuur, ook wel bekend als generatieve stroomafstemming—die beide behandelt lokale bewerkingen (bijvoorbeeld het veranderen van de kleur van een object op een foto) en wereldwijde transformaties (bijvoorbeeld het genereren van nieuwe weergaven van een scène) binnen één model. Hierdoor zijn aparte bewerkings- en generatiemodellen niet meer nodig, worden workflows gestroomlijnd en wordt de noodzaak tot contextwisseling voor creatieve professionals verminderd.
Wat zijn de verschillende Flux.1 Kontext-varianten?
Flux.1 Kontext is verkrijgbaar in drie hoofdvarianten, die elk geschikt zijn voor verschillende use cases en licentiemodellen:
- Flux.1Kontext Dev: Een model dat beschikbaar is onder een niet-commerciële licentie, primair ontworpen voor experimenten en integratie in lokale GPU-aangedreven workflows.
- Flux.1 Kontext Pro: Een gepatenteerd, API-toegankelijk model dat industriële prestaties, consistente resultaten en commerciële ondersteuning biedt.
- Flux.1 Context Max: De premiumlaag met verbeterde typografische verwerking, maximale doorvoer en verbeterde nauwkeurigheid bij randgevallen.
Samen zorgen deze varianten ervoor dat zowel onderzoekers als zakelijke gebruikers multimodale bewerking kunnen benutten, ongeacht of ze prioriteit geven aan aanpasbaarheid of productiestabiliteit.
Wat is “multi-image reference” in Flux.1 Kontext?
Multi-image reference verwijst naar het proces waarbij meerdere voorbeeldafbeeldingen aan een AI-model worden geleverd, zodat het gedeelde kenmerken – zoals stijl, belichting of onderwerpidentiteit – kan afleiden en consistente bewerkingen kan toepassen of nieuwe content kan genereren die deze kenmerken in alle inputs respecteert. In tegenstelling tot conditionering met één afbeelding stelt deze aanpak makers in staat om uniformiteit in batch-uitvoer af te dwingen, handmatige aanpassingen te verminderen en visuele samenhang te garanderen.
Hoe implementeert Flux.1Kontext multi-image referentie?
De kern van Flux.1 Kontext's multi-image-capaciteit is zijn stroomaanpassing Framework. In plaats van elke referentieafbeelding afzonderlijk te behandelen, koppelt Flux.1 Kontext beeld-embeddings en teksttokens aan elkaar tot een uniforme reeks. Een transformer-gebaseerde flowmatcher leert vervolgens hoe deze embeddings in de latente ruimte moeten worden uitgelijnd en samengevoegd, waardoor zowel individuele als gezamenlijke visuele semantiek effectief wordt vastgelegd.
Conventionele multi-referentiebenaderingen berekenen vaak gemiddelde inbeddingen of vertrouwen op intensieve fine-tuning (bijv. LoRA). Flux.1 Kontext's flow matching-benadering:
- Behoudt consistentie over meerdere beurten, waarbij de identiteit en stijl van de objecten behouden blijven.
- Vermindert degradatie, wat gebruikelijk is in iteratieve bewerkingspijplijnen.
- Ondersteunt interactieve tarieven, waardoor bijna realtime previews in applicaties mogelijk zijn.
Welke workflows maken multi-image-integratie met Flux.1 Kontext mogelijk?
Het ontwerp van Flux.1 Kontext zorgt voor naadloze integratie in zowel GUI-gebaseerde als codegestuurde pijplijnen:
ComfyUI-integratie
Door gebruik te maken van de node-gebaseerde interface van ComfyUI kunnen gebruikers meerdere referentiebeelden rechtstreeks in een speciaal "Flux.1 Kontext Dev"-knooppunt invoeren. Dit knooppunt accepteert een lijst met afbeeldingen naast een tekstprompt en genereert een uniform diffusiegrafiekresultaat. Er zijn twee primaire modi:
- Concatenatiemodus: Voegt op sequentieel wijze inbeddingen toe, ideaal voor eenvoudige samengestelde taken.
- Cross-Attention-modus: Interleaves attention maps voor diepere semantische vermenging, bij voorkeur voor complexe stijlsamenvoegingen.
Snelle trucjes, zoals het opgeven van gewichten per afbeelding en naadmengingstokens, helpen kleurverschuivingen en zichtbare verbindingen te voorkomen ().
API-First-benadering (repliceren, CometAPI)
Ontwikkelaars kunnen met Flux.1 Kontext Max of Pro communiceren via RESTful-eindpunten. Het API-schema omvat doorgaans:
{
"input_images": ,
"prompt": "Describe the desired transformation",
"options": { "blend_strength": 0.8, "seed": 42 }
}
Playground- en SDK-ondersteuning in JavaScript, Python en Go maken het eenvoudig om multi-image conditioning te integreren in web- of mobiele apps.
Multi-Image Reference met de Flux.Kontext API van CometAPI
Hieronder vindt u een stapsgewijze handleiding voor het indienen van multi-image referentieverzoeken bij de FLUX 1 Kontext API. Deze handleiding behandelt authenticatie, het opstellen van verzoeken (met twee referentiebeelden), resultaatverwerking en best practices.
1. Hoe authenticeer ik mij met de FLUX.1 Kontext API?
Als u de gehoste FLUX 1 Kontext-apps van Replicate gebruikt, meldt u zich aan bij Replicate → uw account → API-tokens.
Verkrijg uw API-sleutel: Registreren en inloggen KomeetAPI, haal uw dragertoken op van uw dashboard.
Neem de sleutel op in uw header Authorization: Token YOUR_API_TOKEN of, voor API's in dragerstijl: Authorization: Bearer YOUR_API_TOKEN
2. Welk eindpunt verwerkt de fusie van twee afbeeldingen?
Voor het model “combineer twee afbeeldingen” op Replicate (flux-kontext-apps/multi-image-kontext-pro), stuur uw POSTs naar:
https://api.replicate.com/v1/predictions
Voor de beheerde API van CometAPI is dit:
https://api.cometapi.com/replicate/v1/models/black-forest-labs/flux-kontext-max/predictions
Let op: in CometAPI ondersteunt alleen flux-kontext meerdere afbeeldingsreferenties. Om de volgende verschillende modellen aan te roepen, moet u de modelnaam na het model in de URL wijzigen:
black-forest-labs/flux-kontext-max
black-forest-labs/flux-kontext-pro
Beide eindpunten verwachten een JSON-payload met prompt, input_image_1en input_image_2 .
3. Hoe ziet de aanvraagpayload eruit?
Hieronder staat het minimale JSON-schema zoals gedocumenteerd voor multi-image-kontext-pro:
| Veld | Type | Beschrijving |
|---|---|---|
prompt | snaar | Tekstbeschrijving van hoe de twee invoerafbeeldingen kunnen worden gecombineerd of getransformeerd |
input_image_1 | snaar | URL of Base64-gegevens-URI van de eerste afbeelding (JPEG/PNG/WebP/GIF) |
input_image_2 | snaar | URL of Base64-gegevens-URI van tweede afbeelding |
aspect_ratio | opsomming | (Optioneel) match_input, 1:1, 16:9, enz. Standaard ingesteld op match_input |
Tip: U kunt openbaar gehoste URL's of inline Base64-gegevens-URI's doorgeven. Base64 is handig voor eenmalige scripts, maar kan zeer grote bestanden vertragen.
CometAPI ondersteunt nu het uploaden van maximaal 4 referentiebeelden (voorheen werd slechts één beeld ondersteund)
4. Hoe verstuur ik een multi-image request met cURL?
curl https://api.replicate.com/v1/predictions \
-H "Authorization: Token $REPLICATE_API_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"version": "multi-image-kontext-pro:f3545943bdffdf06420f0d8ececf86a36ce401b9df0ad5ec0124234c0665cfed",
"input": {
"prompt": "Blend the lighting from image1 with the background of image2, preserving color harmony",
"input_image_1": "https://example.com/portrait1.png",
"input_image_2": "https://example.com/background2.jpg",
"aspect_ratio": "match_input"
}
}'
- Vervang de
versionveld met de laatste modelversie-ID van Replicate. - Op CometAPI, wissel in hun
/predicteindpunt en gebruik"file": { ... }volgens hun documenten.
5. Hoe kan ik hetzelfde doen in Python?
import requests
API_TOKEN = "YOUR_API_TOKEN"
headers = {
"Authorization": f"Token {API_TOKEN}",
"Content-Type": "application/json",
}
payload = {
"version": "multi-image-kontext-pro:f3545943bdffdf06420f0d8ececf86a36ce401b9df0ad5ec0124234c0665cfed",
"input": {
"prompt": "Combine the style of image1 with the content of image2, matching lighting and mood",
"input_image_1": "https://my-bucket.s3.amazonaws.com/imgA.png",
"input_image_2": "https://my-bucket.s3.amazonaws.com/imgB.png",
"aspect_ratio": "match_input"
},
}
resp = requests.post("https://api.replicate.com/v1/predictions", json=payload, headers=headers)
resp.raise_for_status()
data = resp.json()
print("🖼️ Output URL:", data)
- Check
data(“starten” → “verwerken” → “geslaagd”) om te pollen totdat het klaar is.
6. Hoe verwerk en toon ik het resultaat?
Wanneer de voorspelling is voltooid, retourneert het model een URI naar de samengevoegde afbeelding:
{
"id": "...",
"status": "succeeded",
"output": "https://.../result.png"
}
Haal die URL op (of integreer hem rechtstreeks in uw applicatie/gebruikersinterface).
Hoe maximaliseer je resultaten: wat zijn de beste werkwijzen?
Welke referentiebeelden moet u selecteren?
- Homogeniteit: Kies afbeeldingen met een consistente stijl, onderwerpschaal en belichting voor optimale uniformiteit.
- Diversiteit voor stijloverdracht:Wanneer u een nieuwe stijl toepast, voeg dan verschillende voorbeelden toe die het volledige scala aan gewenste effecten laten zien.
- Hoge-resolutie-ingangen:Referenties van betere kwaliteit leveren scherpere, generatieve uitvoer op, vooral bij fijne details zoals texturen en gezichtskenmerken.
- Limieten voor afbeeldingsgrootte: Zorg ervoor dat elke invoer kleiner is dan 10 MB (replicatiestandaard) om time-outs te voorkomen.
- Formats: JPEG, PNG, GIF en WebP werken het beste. Vermijd exotische formaten.
Snelle techniek:
- Wees expliciet: “behoud gezichtskenmerken van afbeelding 1”
- Gebruik weging: “image1 prioriteit hoog, image2 prioriteit laag”
- Tarieflimieten: Controleer de QPS-limieten van uw abonnement; batch-aanvragen moeten zorgvuldig worden verwerkt.
Beginnen
CometAPI is een uniform API-platform dat meer dan 500 AI-modellen van toonaangevende aanbieders – zoals de GPT-serie van OpenAI, Gemini van Google, Claude, Midjourney en Suno van Anthropic – samenvoegt in één, gebruiksvriendelijke interface voor ontwikkelaars. Door consistente authenticatie, aanvraagopmaak en responsverwerking te bieden, vereenvoudigt CometAPI de integratie van AI-mogelijkheden in uw applicaties aanzienlijk. Of u nu chatbots, beeldgenerators, muziekcomponisten of datagestuurde analysepipelines bouwt, met CometAPI kunt u sneller itereren, kosten beheersen en leveranciersonafhankelijk blijven – en tegelijkertijd profiteren van de nieuwste doorbraken in het AI-ecosysteem.
Ontwikkelaars hebben toegang tot FLUX.1 Context (Model: flux-kontext-pro ; flux-kontext-max) door KomeetAPIDe nieuwste modellen die vermeld staan, gelden vanaf de publicatiedatum van het artikel. Om te beginnen, verken de mogelijkheden van het model in de Speeltuin en raadpleeg de API-gids voor gedetailleerde instructies. Zorg ervoor dat u bent ingelogd op CometAPI en de API-sleutel hebt verkregen voordat u toegang krijgt. KomeetAPI bieden een prijs die veel lager is dan de officiële prijs om u te helpen integreren.
Conclusie
Multi-image referencement met FLUX 1 Kontext vertegenwoordigt een paradigmaverschuiving in generatieve AI-workflows. Door tekst en meerdere visuele inputs te verenigen binnen één flow matching-architectuur, stelt het makers in staat om complexe, consistente outputs te bereiken in minder stappen. Recente doorbraken – variërend van de Image Stitch Node in ComfyUI tot low-precision kwantificeringsoptimalisaties en de CometAPI API – hebben de toegankelijkheid, prestaties en het creatieve potentieel van multi-image processing drastisch vergroot.


