Qu’est-ce que FLUX.2 [flex]
FLUX.2 [flex] est la variante “flexible-control” de la famille FLUX.2 de Black Forest Labs : un modèle de production pour texte→image et édition d’images qui expose des paramètres d’inférence ajustables (steps, guidance scale, seed) afin que les développeurs puissent arbitrer vitesse vs fidélité et régler précisément le comportement en matière de typographie et de détails fins. Flex prend en charge l’édition multi-référence (jusqu’à 10 images de référence dans le niveau Flex), avec des éditions jusqu’à ~4 mégapixels.
Ce pour quoi FLUX.2 [flex] est performant
- Contrôle précis du compromis qualité/vitesse (l’utilisateur choisit le nombre d’étapes d’inférence et l’échelle de guidage).
- Rendu supérieur du texte/de la typographie par rapport à de nombreux contemporains — recommandé pour des affiches, des maquettes d’interface (UI), des infographies.
- Édition multi-référence : combine et préserve les éléments d’identité/de marque sur jusqu’à 10 images d’entrée (Flex), avec un éclairage et des matériaux cohérents.
- Haute résolution native et édition : sortie jusqu’à 4 MP ; enveloppe opérationnelle recommandée ≤ 2 MP pour la plupart des workflows.
- Prompts structurés pris en charge : prompts JSON ou en langage naturel ; le “prompt upsampling” peut enrichir automatiquement les prompts courts.
Comparaison de FLUX.2 [flex] avec ses pairs
Tableau succinct (résumé) :
- Nano Banana Pro (Google / noms internes ; concurrent haute fidélité) : fidélité brute similaire à haute résolution ; Nano Banana cible des sorties plus grandes dans certaines versions de fournisseurs ; les comparaisons d’utilisateurs montrent un photoréalisme comparable mais des forces différentes dans le comportement vis-à-vis des prompts et la constance des éditions.
- Qwen-Image / Hunyuan Image : FLUX.2 a rapporté des taux de gain subjectifs plus élevés dans les comparaisons de lancement sur les tâches texte→image et d’édition multi-référence (voir la couverture du lancement).
- Midjourney / SaaS commercial : Midjourney utilise souvent des pipelines d’upscaling pour rivaliser sur le nombre final de pixels ; FLUX.2 met l’accent sur une sortie native haute résolution et une édition multi-référence plus stricte. Des évaluateurs indépendants constatent des compromis sur le style compositionnel et le détail pixel natif.
À retenir en pratique : les points forts de FLUX.2 sont l’édition multi-référence, une typographie robuste et une famille d’endpoints permettant aux équipes de choisir un compromis débit/qualité/coût. Des testeurs indépendants le jugent compétitif avec les meilleurs modèles de la même fenêtre de sortie.
Paramètres uniquement pour [flex] :
| Paramètre | Type | Par défaut | Description |
|---|---|---|---|
| steps | entier | 50 | [flex uniquement] Nombre d’étapes d’inférence. Maximum : 50, valeur par défaut : 50. Plus élevé = plus de détails, plus lent. |
| guidance | flottant | 4.5 | [flex uniquement] Échelle de guidage. Contrôle la proximité de la sortie avec le prompt. Minimum : 1.5, maximum : 10, valeur par défaut : 4.5. Plus élevé = adhérence plus stricte au prompt. |
Comment accéder à l’API Flux.2 Flex
Étape 1 : Inscrivez-vous pour obtenir une clé API
Connectez-vous à cometapi.com. Si vous n’êtes pas encore utilisateur, veuillez d’abord vous inscrire. Connectez-vous à votre CometAPI console. Obtenez la clé d’accès API de l’interface. Cliquez sur “Add Token” dans la section API token du centre personnel, obtenez la clé de jeton : sk-xxxxx et soumettez.
Étape 2 : Envoyez des requêtes à l’API Flux.2 Flex
Sélectionnez l’endpoint “flux-2-flex” pour envoyer la requête API et définissez le corps de la requête. La méthode et le corps de la requête sont disponibles dans la documentation API de notre site Web. Notre site propose également des tests Apifox pour votre commodité. Remplacez <YOUR_API_KEY> par votre véritable clé CometAPI issue de votre compte. L’URL de base est génération d’images Flux(https://api.cometapi.com/flux/v1/flux-2-flex)
Insérez votre question ou votre requête dans le champ content — c’est à cela que le modèle répondra. Traitez la réponse de l’API pour obtenir le résultat généré.
Étape 3 : Récupérez et vérifiez les résultats
Après la génération, vous pouvez utiliser l’endpoint /flux/v1/get_result pour interroger les images générées ou surveiller l’état du processus. Après traitement, l’API répond avec le statut de la tâche et les données de sortie.
👇 Commencez dès maintenant Génération d’images Flux – Documentation API


