Qué es FLUX.2 [flex]
FLUX.2 [flex] es la variante de “control flexible” de la familia FLUX.2 de Black Forest Labs: un modelo orientado a producción para texto→imagen y edición de imágenes que expone parámetros de inferencia ajustables (pasos, escala de guía, semilla) para que los desarrolladores intercambien velocidad por fidelidad y ajusten con precisión la tipografía y el comportamiento de los detalles finos. Flex admite edición con múltiples referencias (hasta 10 imágenes de referencia en el nivel Flex), ediciones de hasta ~4 megapíxeles.
Para qué es bueno FLUX.2 [flex]
- Control preciso de calidad vs. velocidad (el usuario selecciona los pasos de inferencia y la escala de guía).
- Renderizado de texto/tipografía superior respecto a muchos contemporáneos — recomendado para pósteres, maquetas de UI e infografías.
- Edición con múltiples referencias: combina y preserva elementos de identidad/marca en hasta 10 imágenes de entrada (Flex), con iluminación y materiales coherentes.
- Alta resolución nativa y edición: salida de hasta 4MP; rango operativo recomendado ≤2MP para la mayoría de los flujos de trabajo.
- Prompts estructurados compatibles: prompts en JSON o en lenguaje natural; el “prompt upsampling” puede enriquecer automáticamente los prompts breves.
Cómo se compara FLUX.2 [flex] con sus pares
Tabla breve (resumen):
- Nano Banana Pro (Google / nombres internos; competidor de alta fidelidad): fidelidad bruta similar a altas resoluciones; Nano Banana apunta a salidas más grandes en algunas implementaciones de proveedores; las comparativas de usuarios muestran fotorrealismo comparable pero diferentes fortalezas en el comportamiento ante prompts y la consistencia de edición.
- Qwen-Image / Hunyuan Image: se reportaron tasas de victoria subjetivas más altas para FLUX.2 en las comparativas de lanzamiento en tareas de texto→imagen y edición con múltiples referencias (ver cobertura del lanzamiento).
- Midjourney / SaaS comercial: Midjourney suele usar canalizaciones de upscaling para competir en el recuento final de píxeles; FLUX.2 enfatiza la salida nativa de alta resolución y una edición multi-referencia más estricta. Revisores independientes observan compensaciones en el estilo compositivo y el detalle de píxel nativo.
Conclusión práctica: los puntos fuertes de FLUX.2 son la edición con múltiples referencias, la tipografía robusta y una familia de endpoints que permite a los equipos elegir un compromiso entre rendimiento/calidad/coste. Los evaluadores independientes lo consideran competitivo con los mejores modelos del mismo periodo de lanzamiento.
Parámetros solo de [flex]:
| Parámetro | Tipo | Predeterminado | Descripción |
|---|---|---|---|
| steps | entero | 50 | [solo flex] Número de pasos de inferencia. Máximo: 50, predeterminado: 50. Cuanto mayor = más detalle, más lento. |
| guidance | flotante | 4.5 | [solo flex] Escala de guía. Controla cuán de cerca el resultado sigue el prompt. Mínimo: 1.5, máximo: 10, predeterminado: 4.5. Cuanto mayor = mayor adherencia al prompt. |
Cómo acceder a la API Flux.2 Flex
Paso 1: Regístrate para obtener una clave de API
Inicia sesión en cometapi.com. Si aún no eres usuario, regístrate primero. Accede a tu consola de CometAPI. Obtén la clave de API de acceso de la interfaz. Haz clic en “Add Token” en el token de API del centro personal, obtiene la clave del token: sk-xxxxx y envíala.
Paso 2: Envía solicitudes a la API Flux.2 Flex
Selecciona el endpoint “flux-2-flex” para enviar la solicitud de API y configura el cuerpo de la solicitud. El método de solicitud y el cuerpo de la solicitud se obtienen de la documentación de API en nuestro sitio web. Nuestro sitio web también proporciona pruebas en Apifox para tu comodidad. La URL base es generación de imagen de Flux(https://api.cometapi.com/flux/v1/flux-2-flex)
Inserta tu pregunta o solicitud en el campo content—esto es a lo que el modelo responderá. Procesa la respuesta de la API para obtener el resultado generado.
Paso 3: Recupera y verifica los resultados
Tras la generación, puedes usar el endpoint /flux/v1/get_result para consultar las imágenes generadas o monitorizar el estado del proceso. Tras el procesamiento, la API responde con el estado de la tarea y los datos de salida.
👇 Empieza a crear ahora Generación de imágenes de Flux – Documentación de la API


