โมเดลราคาองค์กร
500+ AI Model API ทั้งหมดในหนึ่ง API เพียงแค่ใน CometAPI
API โมเดล
นักพัฒนา
เริ่มต้นอย่างรวดเร็วเอกสารประกอบแดชบอร์ด API
บริษัท
เกี่ยวกับเราองค์กร
ทรัพยากร
โมเดล AIบล็อกบันทึกการเปลี่ยนแปลงสนับสนุน
ข้อกำหนดการให้บริการนโยบายความเป็นส่วนตัว
© 2026 CometAPI · All rights reserved
Home/Models/Flux/flux-pro-1.1-ultra-finetuned
F

flux-pro-1.1-ultra-finetuned

ต่อคำขอ:$0.096
ใช้งานเชิงพาณิชย์
ภาพรวม
คุณสมบัติ
ราคา
API

Technical Specifications of flux-pro-1-1-ultra-finetuned

flux-pro-1-1-ultra-finetuned is CometAPI’s platform identifier for Black Forest Labs’ FLUX 1.1 Pro Ultra finetuned inference model, a text-to-image model designed for custom finetune-based generation. Official pricing references list FLUX1.1 [pro] Ultra at $0.06 per image and the finetuned Ultra variant at $0.07 per image, with finetuning available for FLUX 1.1 Pro family models. The model is positioned for ultra high-resolution generation, and third-party model documentation states it supports up to 4MP image output and optional raw mode for more realistic results.

Key technical points:

  • Model family: FLUX 1.1 Pro Ultra finetuned inference model.
  • Modality: text-to-image generation with custom finetune support via finetune_id.
  • Resolution profile: supports images up to 4 megapixels.
  • Special mode: supports raw mode for a more candid, natural photographic aesthetic.
  • Finetune control: supports finetune_strength, described as ranging from 0 to 2 with a default of 1 in available public documentation.
  • Performance note: public model documentation describes generation time of roughly 10 seconds per sample, though real performance depends on provider infrastructure and queue conditions.

What is flux-pro-1-1-ultra-finetuned?

flux-pro-1-1-ultra-finetuned is a premium image-generation model endpoint for developers who want FLUX 1.1 Pro Ultra quality combined with custom-trained concepts, styles, products, or characters. In practice, it is the finetuned version of FLUX 1.1 Pro Ultra, meaning you do not just prompt the base model—you can also apply a trained finetune_id to steer outputs toward your own visual identity or subject matter.

Compared with the standard FLUX1.1 [pro] model, the Ultra tier is positioned for higher-resolution output and premium image fidelity. The finetuned variant extends that with custom model conditioning, making it useful for brand-consistent asset creation, campaign visuals, stylized product imagery, character preservation, and reusable visual concepts across batches of generations.

Main features of flux-pro-1-1-ultra-finetuned

  • Custom finetune inference: Uses a trained finetune_id, allowing teams to generate images with their own learned style, subject, character, or product concept instead of relying only on base prompting.
  • Ultra-resolution output: Supports up to 4MP images, which makes it more suitable for high-detail creative workflows than standard lower-resolution text-to-image endpoints.
  • Raw mode realism: Includes a raw option intended to reduce the polished synthetic look and produce more natural, candid, photorealistic results.
  • Adjustable finetune strength: Exposes finetune_strength so developers can tune how strongly the custom training influences the final image, balancing concept fidelity against prompt flexibility.
  • Production-oriented quality tier: FLUX1.1 [pro] Ultra is officially described by Black Forest Labs as an ultra high-resolution image model, and the finetuned version inherits that premium positioning for professional creative use cases.
  • API-first integration path: Public ecosystem references show the model is exposed through API-based workflows and partner platforms, making it suitable for programmatic generation pipelines, internal creative tools, and automated media systems.

How to access and integrate flux-pro-1-1-ultra-finetuned

Step 1: Sign Up for API Key

To get started, create a CometAPI account and generate your API key from the dashboard. Once you have an active key, you can authenticate requests to the API and use flux-pro-1-1-ultra-finetuned as the model value in your payload.

Step 2: Send Requests to flux-pro-1-1-ultra-finetuned API

Use the standard OpenAI-compatible CometAPI endpoint and specify flux-pro-1-1-ultra-finetuned as the model ID.

curl --request POST \
  --url https://api.cometapi.com/v1/responses \
  --header "Authorization: Bearer $COMETAPI_API_KEY" \
  --header "Content-Type: application/json" \
  --data '{
    "model": "flux-pro-1-1-ultra-finetuned",
    "input": "A cinematic portrait of a fashion model in soft natural window light, high detail, realistic skin texture"
  }'
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_COMETAPI_API_KEY",
    base_url="https://api.cometapi.com/v1"
)

response = client.responses.create(
    model="flux-pro-1-1-ultra-finetuned",
    input="A cinematic portrait of a fashion model in soft natural window light, high detail, realistic skin texture"
)

print(response)

Step 3: Retrieve and Verify Results

After sending the request, parse the response object returned by CometAPI and extract the generated result according to your SDK or HTTP client. For production use, verify output quality, confirm that the returned content matches your prompt or finetune intent, and log request IDs and parameters for traceability when integrating flux-pro-1-1-ultra-finetuned into larger applications.

คุณสมบัติสำหรับ flux-pro-1.1-ultra-finetuned

สำรวจคุณสมบัติหลักของ flux-pro-1.1-ultra-finetuned ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพและความสะดวกในการใช้งาน ค้นพบว่าความสามารถเหล่านี้สามารถเป็นประโยชน์ต่อโครงการของคุณและปรับปรุงประสบการณ์ของผู้ใช้ได้อย่างไร

ราคาสำหรับ flux-pro-1.1-ultra-finetuned

สำรวจราคาที่แข่งขันได้สำหรับ flux-pro-1.1-ultra-finetuned ที่ออกแบบมาให้เหมาะสมกับงบประมาณและความต้องการการใช้งานที่หลากหลาย แผนการบริการที่ยืดหยุ่นของเรารับประกันว่าคุณจะจ่ายเฉพาะสิ่งที่คุณใช้เท่านั้น ทำให้สามารถขยายขนาดได้ง่ายเมื่อความต้องการของคุณเพิ่มขึ้น ค้นพบว่า flux-pro-1.1-ultra-finetuned สามารถยกระดับโปรเจกต์ของคุณได้อย่างไรในขณะที่ควบคุมต้นทุนให้อยู่ในระดับที่จัดการได้
ราคา Comet (USD / M Tokens)ราคาทางการ (USD / M Tokens)ส่วนลด
ต่อคำขอ:$0.096
ต่อคำขอ:$0.12
-20%

โค้ดตัวอย่างและ API สำหรับ flux-pro-1.1-ultra-finetuned

เข้าถึงโค้ดตัวอย่างที่ครอบคลุมและทรัพยากร API สำหรับ flux-pro-1.1-ultra-finetuned เพื่อปรับปรุงกระบวนการผสานรวมของคุณ เอกสารประกอบที่มีรายละเอียดของเราให้คำแนะนำทีละขั้นตอน ช่วยให้คุณใช้ประโยชน์จากศักยภาพเต็มรูปแบบของ flux-pro-1.1-ultra-finetuned ในโครงการของคุณ

โมเดลเพิ่มเติม

G

Nano Banana 2

อินพุต:$0.4/M
เอาต์พุต:$2.4/M
ภาพรวมความสามารถหลัก: ความละเอียด: สูงสุด 4K (4096×4096) เทียบเท่า Pro. ความสม่ำเสมอของภาพอ้างอิง: รองรับภาพอ้างอิงได้สูงสุด 14 ภาพ (วัตถุ 10 รายการ + ตัวละคร 4 ตัว), รักษาความสม่ำเสมอของสไตล์/ตัวละคร. อัตราส่วนภาพแบบสุดโต่ง: เพิ่มอัตราส่วนใหม่ 1:4, 4:1, 1:8, 8:1 เหมาะสำหรับภาพแนวยาว, โปสเตอร์ และแบนเนอร์. การเรนเดอร์ข้อความ: การสร้างข้อความขั้นสูง เหมาะสำหรับอินโฟกราฟิกและเลย์เอาต์โปสเตอร์สำหรับการตลาด. การปรับปรุงการค้นหา: ผสาน Google Search + การค้นหาด้วยภาพ. การยึดโยง: มีกระบวนการคิดในตัว; ทำการให้เหตุผลกับพรอมป์ตที่ซับซ้อนก่อนการสร้าง.
C

Claude Opus 4.7

อินพุต:$4/M
เอาต์พุต:$20/M
โมเดลที่ฉลาดที่สุดสำหรับเอเจนต์และการเขียนโค้ด
C

Claude Opus 4.6

อินพุต:$4/M
เอาต์พุต:$20/M
Claude Opus 4.6 เป็นโมเดลภาษาขนาดใหญ่ระดับ “Opus” ของ Anthropic เปิดตัวในเดือนกุมภาพันธ์ 2026. ถูกวางตำแหน่งให้เป็นกำลังหลักสำหรับงานเชิงความรู้และเวิร์กโฟลว์การวิจัย — ปรับปรุงการให้เหตุผลในบริบทยาว การวางแผนหลายขั้นตอน การใช้เครื่องมือ (รวมถึงเวิร์กโฟลว์ซอฟต์แวร์เชิงตัวแทน) และงานการใช้คอมพิวเตอร์ เช่น การสร้างสไลด์และสเปรดชีตอัตโนมัติ.
A

Claude Sonnet 4.6

อินพุต:$2.4/M
เอาต์พุต:$12/M
Claude Sonnet 4.6 เป็นโมเดล Sonnet ที่มีความสามารถมากที่สุดเท่าที่เคยมีมา เป็นการอัปเกรดเต็มรูปแบบของทักษะของโมเดล ครอบคลุมการเขียนโค้ด การใช้งานคอมพิวเตอร์ การให้เหตุผลในบริบทยาว การวางแผนของเอเจนต์ งานด้านความรู้ และการออกแบบ Sonnet 4.6 ยังมาพร้อมกับหน้าต่างบริบทขนาด 1M โทเค็นในเวอร์ชันเบต้า
O

GPT-5.4 nano

อินพุต:$0.16/M
เอาต์พุต:$1/M
GPT-5.4 nano ถูกออกแบบมาสำหรับงานที่ความเร็วและต้นทุนมีความสำคัญสูงสุด เช่น การจำแนกประเภท การสกัดข้อมูล การจัดอันดับ และเอเจนต์ย่อย.
O

GPT-5.4 mini

อินพุต:$0.6/M
เอาต์พุต:$3.6/M
GPT-5.4 mini นำจุดแข็งของ GPT-5.4 มาสู่โมเดลที่เร็วกว่าและมีประสิทธิภาพมากขึ้น ซึ่งออกแบบมาสำหรับภาระงานปริมาณมาก