O

GPT-5.2 Pro

上下文:400,000
輸入:$12.00/M
輸出:$96.00/M
gpt-5.2-pro 是 OpenAI 的 GPT-5.2 系列中能力最強、面向生產環境的成員,透過 Responses API 對外提供,用於需要最高保真度、多步推理、廣泛的工具使用,以及 OpenAI 所提供的最大上下文/吞吐量配額的工作負載。
O

GPT-5.2 Chat

上下文:128,000
輸入:$1.40/M
輸出:$11.20/M
gpt-5.2-chat-latest 是 OpenAI 的 GPT-5.2 系列中針對聊天優化的快照(在 ChatGPT 中稱為 GPT-5.2 Instant)。它是面向互動/聊天用例的模型,適用於需要兼顧速度、長上下文處理、多模態輸入以及可靠對話行為的情境。
O

GPT-5.2

上下文:400,000
輸入:$1.40/M
輸出:$11.20/M
GPT-5.2 是一個多版本的模型系列(Instant、Thinking、Pro),專為更佳的長上下文理解、更強的程式設計與工具使用能力,以及在專業「知識工作」基準測試中取得實質更高的表現而設計。
O

GPT-5.1 Chat

上下文:400.0k
輸入:$1.00/M
輸出:$8.00/M
GPT-5.1 Chat 是一個經指令微調的對話式語言模型,用於通用聊天、推理與寫作。它支援多輪對話、摘要、草擬、知識庫問答,以及面向應用內助理、支援自動化與工作流程副駕的輕量級程式碼輔助。技術亮點包括針對聊天優化的對齊、可控且結構化的輸出,以及在可用時提供工具呼叫與檢索工作流程的整合路徑。
O

GPT-5.1

輸入:$1.00/M
輸出:$8.00/M
GPT-5.1 是一款通用的指令微調語言模型,專注於跨產品工作流程的文本生成與推理。它支援多輪對話、結構化輸出格式,以及以程式碼為導向的任務,例如撰寫、重構與說明。典型用例包括聊天助理、檢索增強式問答、資料轉換,以及在支援的情況下透過工具或 API 進行代理式自動化。技術亮點包括以文本為中心的模態、指令遵循、JSON 風格輸出,以及與常見編排框架中的函式呼叫相容。
O

GPT-5 nano

上下文:400K
輸入:$0.04/M
輸出:$0.32/M
GPT-5 Nano 是由 OpenAI 提供的人工智慧模型。
O

GPT-5 mini

上下文:400K
輸入:$0.20/M
輸出:$1.60/M
GPT-5 mini 是 OpenAI 針對成本與延遲優化的 GPT-5 系列成員,旨在以顯著更低的成本,為大規模生產使用提供 GPT-5 在多模態與指令遵循方面的絕大部分優勢。它面向以吞吐量、可預測的每 token 定價與快速回應為主要約束的環境,同時仍提供強大的通用能力。
O

GPT 5 Chat

上下文:400K
輸入:$1.00/M
輸出:$8.00/M
GPT-5 Chat (latest) 是由 OpenAI 提供的人工智慧模型。
O

GPT-5

上下文:400K
輸入:$1.00/M
輸出:$8.00/M
GPT-5 是 OpenAI 迄今為止最強大的程式碼模型。它在複雜前端生成與大型程式碼庫的偵錯方面有顯著提升。它能以直觀且具美感的成果將想法化為現實,只需一則提示即可打造優美且響應式的網站、應用程式與遊戲,並展現敏銳的美學感知。早期測試者也注意到其設計選擇,對於間距、字體排印與留白等元素有更深刻的理解。
O

GPT-4.1 nano

上下文:1.0M
輸入:$0.08/M
輸出:$0.32/M
GPT-4.1 nano 是由 OpenAI 提供的人工智慧模型。 gpt-4.1-nano: 具備更大的上下文視窗—支援最多 1 million 個上下文 token,並能透過改進的長上下文理解更好地利用該上下文。 知識截止時間更新為 2024 年 6 月。 此模型支援的最大上下文長度為 1,047,576 個 token。
O

GPT-4.1

上下文:1.0M
輸入:$1.60/M
輸出:$6.40/M
GPT-4.1 是由 OpenAI 提供的人工智慧模型。gpt-4.1-nano:具備更大的上下文視窗—支援多達 1 million 個上下文 token,並能透過改進的長上下文理解更好地利用該上下文。知識截止時間已更新為 2024 年 6 月。此模型支援的最大上下文長度為 1,047,576 個 token。
O

GPT-4o mini

輸入:$0.12/M
輸出:$0.48/M
GPT-4o mini 是由 OpenAI 提供的人工智慧模型。
O

Whisper-1

輸入:$24.00/M
輸出:$24.00/M
語音轉文字,生成翻譯
O

TTS

輸入:$12.00/M
輸出:$12.00/M
OpenAI 文字轉語音
O

Sora 2 Pro

每秒:$0.24
Sora 2 Pro 是我們最先進且最強大的媒體生成模型,能生成帶有同步音訊的影片。它可以從自然語言或圖像創建細節豐富、動態的影片片段。
O

Sora 2

每秒:$0.08
超強大的影片生成模型,具備音效,支援對話格式。
O

GPT Image 1 mini

輸入:$2.00/M
輸出:$6.40/M
GPT Image 1 的成本優化版本。它是一款原生多模態語言模型,可接受文字與影像輸入,並產生影像輸出。
O

GPT 4.1 mini

上下文:1.0M
輸入:$0.32/M
輸出:$1.28/M
GPT-4.1 mini 是由 OpenAI 提供的人工智慧模型。gpt-4.1-mini:在小型模型效能上實現重大躍進,在許多基準測試中甚至超越 GPT-4o。它在智慧評估上達到或超越 GPT-4o,同時將延遲降低近一半,成本降低 83%。此模型支援的最大上下文長度為 1,047,576 個 token。
O

o4-mini-deep-research

上下文:200K
輸入:$1.60/M
輸出:$6.40/M
O4-Mini-Deep-Research 是 OpenAI 的最新代理式推理模型,結合輕量級的 o4-mini 骨幹模型與先進的 Deep Research 框架。旨在提供快速且具成本效益的深度資訊整合,使開發者與研究人員能在單一 API 呼叫中執行自動化網路搜尋、資料分析與思維鏈推理。
O

o4-mini

輸入:$0.88/M
輸出:$3.52/M
O4-mini 是由 OpenAI 提供的人工智慧模型。
O

O3 Pro

上下文:200K
輸入:$16.00/M
輸出:$64.00/M
OpenAI o3‑pro 是 o3 推理模型的「pro」變體,經過工程化設計,以進行更長程的思考並輸出最可靠的回應,藉由採用私有思維鏈強化學習,並在科學、程式設計與商業等領域樹立全新的最先進基準——同時可在 API 中自主整合如網路搜尋、檔案分析、Python 執行與視覺推理等工具。
O

o3-mini

輸入:$0.88/M
輸出:$3.52/M
O3-mini 是由 OpenAI 提供的人工智慧模型。
O

o3-deep-research

輸入:$8.00/M
輸出:$32.00/M
基於 O3 模型的聯網深度研究智能體,支援多步推理與引文分析報告。
O

o3

輸入:$1.60/M
輸出:$6.40/M
O3 是由 OpenAI 提供的人工智慧模型。
O

GPT-4o mini Audio

輸入:$0.12/M
輸出:$0.48/M
GPT-4o mini Audio 是一個用於語音與文字互動的多模態模型。它能執行語音辨識、翻譯與文字轉語音,遵循指令,並能呼叫工具以進行結構化操作,提供串流式回應。典型用途包括即時語音助理、即時字幕與翻譯、通話摘要,以及語音控制的應用程式。技術亮點包括音訊輸入與輸出、串流回應、函式呼叫,以及結構化 JSON 輸出。
O

codex-mini-latest

輸入:$1.20/M
輸出:$4.80/M
Codex Mini 是由 OpenAI 提供的人工智慧模型。它是 OpenAI 在程式碼生成領域的最新成果,並且是一款專為 Codex 命令列介面(CLI)優化的輕量級模型。作為 o4-mini 的微調版本,該模型在承襲基礎模型的高效率與回應速度的同時,亦針對程式碼理解與生成進行了特別優化。
O

GPT-4o mini TTS

輸入:$9.60/M
輸出:$38.40/M
GPT-4o mini TTS 是一款神經網路文字轉語音模型,旨在於面向使用者的應用程式中實現自然、低延遲的語音生成。它可將文字轉換為自然聽感的語音,提供可選語音、多種格式輸出與串流合成,帶來反應迅速的體驗。典型用例包括語音助理、IVR 與聯絡流程、產品內容朗讀與媒體旁白。技術亮點包括基於 API 的串流,以及匯出為 MP3 與 WAV 等常見音訊格式。
O

GPT-4o Realtime

輸入:$60.00/M
輸出:$240.00/M
Realtime API 讓開發者打造低延遲的多模態體驗,包括語音轉語音功能。Realtime API 所處理的文字與音訊將分別計費。此模型支援的最大上下文長度為 128,000 個 token。
O

GPT-4o Search

輸入:$60.00/M
輸出:$60.00/M
GPT-4o Search 是一個以 GPT-4o 為基礎的多模態模型,配置為支援搜尋增強推理並提供有根據且最新的答案。它遵循指令,並使用網路搜尋工具檢索、評估與綜合外部資訊,在可用時提供來源脈絡。典型用途包括研究輔助、事實查核、新聞與趨勢監測,以及回應時間敏感的查詢。技術亮點包括用於瀏覽與檢索的工具/函式呼叫、長上下文處理,以及適用於引用與連結的結構化輸出。
O

ChatGPT-4o

輸入:$4.00/M
輸出:$12.00/M
基於 GPT-4o 的最新迭代,該多模態大型語言模型(LLM)支援文字、圖像、音訊與影片的輸入/輸出。
O

tts-1-hd-1106

輸入:$24.00/M
輸出:$24.00/M
O

tts-1-hd

輸入:$24.00/M
輸出:$24.00/M
O

tts-1-1106

輸入:$12.00/M
輸出:$12.00/M
O

tts-1

輸入:$12.00/M
輸出:$12.00/M
O

text-embedding-ada-002

輸入:$0.08/M
輸出:$0.08/M
An Ada-based text embedding model optimized for various NLP tasks.
O

text-embedding-3-small

輸入:$0.02/M
輸出:$0.02/M
A small text embedding model for efficient processing.
O

text-embedding-3-large

輸入:$0.10/M
輸出:$0.10/M
A large text embedding model for a wide range of natural language processing tasks.
O

omni-moderation-latest

每次請求:$0.00
O

omni-moderation-2024-09-26

每次請求:$0.00
O

o1-pro-all

輸入:$120.00/M
輸出:$480.00/M
O

o1-pro-2025-03-19

輸入:$120.00/M
輸出:$480.00/M
O

o1-pro

輸入:$120.00/M
輸出:$480.00/M
O1-pro is an artificial intelligence model provided by OpenAI.
O

o1-preview-all

每次請求:$0.16
O

o1-preview-2024-09-12

輸入:$12.00/M
輸出:$48.00/M
O

o1-preview

輸入:$12.00/M
輸出:$48.00/M
O1-preview is an artificial intelligence model provided by OpenAI.
O

o1-mini-all

每次請求:$0.08
O

o1-mini-2024-09-12

輸入:$0.88/M
輸出:$3.52/M
O

o1-mini

輸入:$0.88/M
輸出:$3.52/M
O1-mini is an artificial intelligence model provided by OpenAI.
O

o1-all

每次請求:$0.16
O

o1-2024-12-17

輸入:$12.00/M
輸出:$48.00/M
O

o1

輸入:$12.00/M
輸出:$48.00/M
O1 is an artificial intelligence model provided by OpenAI.
O

gpt-realtime-mini

輸入:$0.48/M
輸出:$0.96/M
即時 GPT 的經濟型版本—可透過 WebRTC、WebSocket 或 SIP 連線,即時回應音訊與文字輸入。
C

gpt-oss-20b

輸入:$0.08/M
輸出:$0.32/M
gpt-oss-20b is an artificial intelligence model provided by cloudflare-workers-ai.
C

gpt-oss-120b

輸入:$0.16/M
輸出:$0.80/M
gpt-oss-120b is an artificial intelligence model provided by cloudflare-workers-ai.
O

gpt-image-1

輸入:$8.00/M
輸出:$32.00/M
An advanced AI model for generating images from text descriptions.
O

gpt-4o-all

輸入:$2.00/M
輸出:$8.00/M
<div>GPT-4o is OpenAI's most advanced Multimodal model, faster and cheaper than GPT-4 Turbo, with stronger visual capabilities. This model has a 128K context and a knowledge cutoff of October 2023. Models in the 1106 series and above support tool_calls and function_call.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision-preview

輸入:$2.00/M
輸出:$8.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision

輸入:$8.00/M
輸出:$24.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-v

每次請求:$0.04
O

gpt-4-turbo-preview

輸入:$8.00/M
輸出:$24.00/M
<div>gpt-4-turbo-preview Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo-2024-04-09

輸入:$8.00/M
輸出:$24.00/M
<div>gpt-4-turbo-2024-04-09 Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo

輸入:$8.00/M
輸出:$24.00/M
GPT-4 Turbo is an artificial intelligence model provided by OpenAI.
O

gpt-4-search

每次請求:$0.04
O

gpt-4-gizmo-*

輸入:$24.00/M
輸出:$48.00/M
O

gpt-4-gizmo

輸入:$24.00/M
輸出:$48.00/M
O

gpt-4-dalle

每次請求:$0.04
O

gpt-4-all

輸入:$24.00/M
輸出:$48.00/M
A

gpt-4-32k

輸入:$48.00/M
輸出:$96.00/M
GPT-4 32K is an artificial intelligence model provided by Azure.
O

gpt-4-1106-preview

輸入:$8.00/M
輸出:$16.00/M
O

gpt-4-0613

輸入:$24.00/M
輸出:$48.00/M
O

gpt-4-0314

輸入:$24.00/M
輸出:$48.00/M
O

gpt-4-0125-preview

輸入:$8.00/M
輸出:$16.00/M
O

gpt-4

輸入:$24.00/M
輸出:$48.00/M
GPT-4 is an artificial intelligence model provided by OpenAI.
O

gpt-3.5-turbo-0125

輸入:$0.40/M
輸出:$1.20/M
GPT-3.5 Turbo 0125 is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

gpt-3.5-turbo

輸入:$0.40/M
輸出:$1.20/M
GPT-3.5 Turbo is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

dall-e-3

每次請求:$0.02
New version of DALL-E for image generation.
O

dall-e-2

輸入:$8.00/M
輸出:$32.00/M
An AI model that generates images from text descriptions.
C

Claude Sonnet 4.5

上下文:200K
輸入:$2.40/M
輸出:$12.00/M
Claude Sonnet 4.5 在電腦應用能力方面取得重大躍進。在 OSWorld 這個用於測試 AI 模型處理真實世界電腦任務的基準平台上,Sonnet 4.5 以 61.4% 躍居榜首,而僅四個月前,Sonnet 4 以 42.2% 領先。我們的 Claude for Chrome 擴充功能將這些升級功能付諸實踐。
A

Claude Opus 4.5

上下文:200K
輸入:$4.00/M
輸出:$20.00/M
Claude Opus 4.5 是 Anthropic 推出的經指令微調大型語言模型,旨在處理複雜推理、程式設計與多輪對話。 它支援長上下文處理、工具/函式呼叫、結構化輸出,以及與檢索增強工作流程的整合。 典型用例包括分析型助理、程式碼生成與審查、知識庫問答,以及內容撰寫並產出符合政策的回應。 技術亮點包括指令遵循、對 RAG 友善的行為,以及在 Claude 部署中可用的安全控制。
C

Claude Opus 4.1

上下文:200K
輸入:$12.00/M
輸出:$60.00/M
Claude Opus 4.1 是 Anthropic 旗艦模型的更新版本,在程式設計、推理與代理任務方面提供了更佳的表現。它在 SWE-bench Verified 上取得 74.5% 的成績,並在跨多檔案的程式碼重構、除錯準確性以及注重細節的推理方面有顯著提升。此模型支援最長達 64K tokens 的擴展推理,並針對涉及研究、資料分析與工具輔助推理的任務進行了最佳化。
C

Claude 4 Sonnet

上下文:200K
輸入:$2.40/M
輸出:$12.00/M
速度最快、最具成本效益的模型,200K 上下文視窗。
C

Claude Opus 4

上下文:200K
輸入:$12.00/M
輸出:$60.00/M
智慧、成本與速度的最佳平衡。200K 上下文視窗。
C

Claude 3.7 Sonnet

輸入:$2.40/M
輸出:$12.00/M
Claude 對抗 R1 的大動作,強大的 3.7 正式上線。此模型支援最長 200,000 個 token 的上下文長度,並支援思維功能。
C

Claude Haiku 4.5

上下文:200K
輸入:$0.80/M
輸出:$4.00/M
最快、最具成本效益的模型。
C

Claude 3.5 Haiku

輸入:$0.80/M
輸出:$4.00/M
這些別名會自動指向指定模型的最新快照。雖然對實驗很有用,但我們建議在生產應用中使用具體的模型版本(例如,claude-3-5-sonnet-20241022),以確保行為一致。當我們發布新的模型快照時,會將 -latest 別名遷移為指向新版本(通常在新版本發布後一週內)。-latest 別名與其所指向的底層模型版本具有相同的速率限制與定價。此模型支援最多 200,000 個 tokens 的上下文長度。
C

Claude 3 Haiku

輸入:$0.20/M
輸出:$1.00/M
Claude Haiku 3 是由 Anthropic 提供的人工智慧模型。
G

Veo 3.1 Pro

每次請求:$2.00
Veo 3.1-Pro 指的是 Google 的 Veo 3.1 系列的高階存取/設定 — 這是一代支援音訊的短影片模型,並加入更豐富的原生音訊、改進的敘事/剪輯控制與場景延伸工具。
G

Veo 3.1

每次請求:$0.40
Veo 3.1 是 Google 對其 Veo 文本與圖像→影片系列的一次漸進但意義重大的更新,新增更豐富的原生音訊、更長且更可控的影片輸出,以及更精細的編輯與場景層級控制。
G

Veo 3 Pro

每次請求:$2.00
Veo 3 pro 表示生產級的 Veo 3 影片模型體驗 (高保真、原生音訊,以及擴充的工具集)
G

Veo 3 Fast

每次請求:$0.40
Veo 3 Fast 是 Google 的 Veo 生成式影片模型家族(Veo 3 / Veo 3.1 等)的速度優化變體。其設計旨在在優先考量吞吐量與每秒成本的前提下,產生附帶原生生成音訊的短篇、高品質影片片段—為了換取更快的生成速度與更低的價格,會在頂級視覺保真度和/或更長的單鏡頭時長上作出一定取捨。 What is Veo 3 Fast — 簡要介紹
G

Veo 3

每次請求:$0.40
Google DeepMind 的 Veo 3 代表了文字轉影片生成技術的尖端水準,並標誌著大型生成式 AI 模型首次能夠將高保真影片與搭配的音訊—包括對話、音效與環境音景—無縫同步。
G

Gemini 2.5 Pro

上下文:1M
輸入:$1.00/M
輸出:$8.00/M
Gemini 2.5 Pro 是由 Google 提供的人工智慧模型。它具備原生的多模態處理能力與可達 1 million tokens 的超長上下文視窗,為複雜、長序列任務提供前所未有的強大支援。根據 Google 的數據,Gemini 2.5 Pro 在複雜任務上表現尤為出色。此模型支援的最大上下文長度為 1,048,576 tokens。
G

Gemini 2.5 Flash

上下文:1M
輸入:$0.24/M
輸出:$2.00/M
Gemini 2.5 Flash 是 Google 開發的 AI 模型,旨在為開發者提供快速且具成本效益的解決方案,特別適用於需要增強推理能力的應用程式。 根據 Gemini 2.5 Flash 的預覽版公告,該模型已於 2025 年 4 月 17 日以預覽版發布,支援多模態輸入,並具有 100 萬個詞元的上下文視窗。 此模型支援的最大上下文長度為 65,536 個詞元。
G

Nano Banana

每次請求:$0.03
Gemini 2.5 Flash Image(又稱 nano-banana),Google 最先進的圖像生成與編輯模型。此更新可讓您將多張圖像合成為單一圖像、維持角色一致性以講述豐富的故事、使用自然語言執行針對性的轉換,並運用 Gemini 的世界知識來生成與編輯圖像。
G

Gemini 2.5 Flash Lite

上下文:1M
輸入:$0.08/M
輸出:$0.32/M
為高成本效益與高吞吐量而優化的 Gemini 2.5 Flash 模型。最小、最具成本效益的模型,專為大規模使用而設計。
G

Gemini 2.5 Pro DeepSearch

輸入:$8.00/M
輸出:$64.00/M
深度搜尋模型,具備增強的深度搜尋與資訊檢索能力,是進行複雜知識整合與分析的理想選擇。
G

Gemini 2.5 Pro (All)

輸入:$2.00/M
輸出:$16.00/M
Gemini 2.5 Pro (All) 是一款用於文本與媒體理解的多模態模型,為通用型助手與有根據的推理而設計。它能處理指令遵循、分析性寫作、程式碼理解,以及影像/音訊理解,並具備可靠的工具/函式呼叫與對 RAG 友好的行為。典型用途包括企業聊天代理、文件與 UI 分析、視覺問答,以及工作流程自動化。技術亮點包括統一的影像‑文本‑音訊輸入、長上下文支援、結構化 JSON 輸出、串流回應,以及系統指令控制。
G

Gemini 2.5 Flash DeepSearch

輸入:$4.80/M
輸出:$38.40/M
深度搜尋模型,具備增強的深度搜尋與資訊檢索能力,是複雜知識整合與分析的理想之選。
G

Gemini 2.5 Flash (All)

輸入:$0.24/M
輸出:$2.00/M
Gemini 2.5 Flash 是由 Google 開發的 AI 模型,旨在為開發者提供快速且具成本效益的解決方案,特別適用於需要增強推理能力的應用。根據 Gemini 2.5 Flash 預覽公告,該模型於 2025 年 4 月 17 日以預覽形式發布,支援 Multimodal 輸入,並具備 1 million tokens 的上下文視窗。此模型支援的最大上下文長度為 65,536 tokens。
G

Gemini 2.0 Flash Lite

輸入:$0.08/M
輸出:$0.32/M
Gemini 2.0 Flash Lite 是一款精簡、經過指令微調的多模態模型,針對低延遲與高吞吐量推論進行最佳化。它可處理文字與影像理解、摘要、分類與輕量推理,並支援工具/函式呼叫與結構化輸出控制。典型用途包括對話代理、快速內容起稿、從文件或螢幕擷圖擷取中繼資料,以及檢索增強式工作流程。技術重點包括文字與影像輸入、串流生成、工具/函式呼叫,以及適用於延遲敏感服務的部署選項。
G

Gemini 2.0 Flash

輸入:$0.08/M
輸出:$0.32/M
Gemini 2.0 Flash 是由 Google-Vertex 提供的人工智慧模型。
G

Nano Banana Pro

每次請求:$0.19
Nano Banana Pro 是一款面向以文字為中心工作流程的通用型協助 AI 模型。它適用於採用指令式提示,生成、轉換並分析具有可控結構的內容。典型用途包括聊天助理、文件摘要、知識問答與工作流程自動化。公開的技術細節有限;其整合方式與常見的 AI 助理模式一致,例如結構化輸出、檢索增強式提示,以及工具或函式呼叫。
G

Gemini 3 Pro Preview

上下文:200.0k
輸入:$1.60/M
輸出:$9.60/M
Gemini 3 Pro Preview 是 Gemini 系列中的通用模型,以預覽形式提供,用於評估與原型製作。它支援指令遵循、多輪推理,以及程式碼與資料任務,並提供結構化輸出與工具/函式呼叫以實現工作流程自動化。典型用例如聊天助理、摘要與改寫、檢索增強型問答、資料擷取,以及在各類應用與服務中的輕量級程式協助。技術亮點包括基於 API 的部署、串流回應、安全控制與整合就緒,並可依預覽設定提供多模態能力。
X

Grok Code Fast 1

上下文:256K
輸入:$0.16/M
輸出:$1.20/M
Grok Code Fast 1 是由 xAI 推出的 AI 程式設計模型,旨在快速且高效地處理基礎編碼任務。該模型每秒可處理 92 個 token,具備 256k 的上下文視窗,適用於快速原型製作、程式除錯,以及生成簡單的視覺元素。
X

Grok 4 Fast

上下文:2M
輸入:$0.16/M
輸出:$0.40/M
Grok 4 Fast 是由 xAI 推出的全新人工智慧模型,將推理與非推理能力整合於單一架構之中。此模型具有 2 million token 的上下文視窗,並為搜尋與程式碼撰寫等高吞吐量應用而設計。該模型提供兩個版本:Grok-4-Fast-Reasoning 與 Grok-4-Fast-Non-Reasoning,分別針對不同任務進行最佳化。
X

Grok 4.1 Fast

上下文:2M
輸入:$0.16/M
輸出:$0.40/M
Grok 4.1 Fast 是 xAI 面向生產環境的大型模型,針對代理式工具呼叫、長上下文工作流程與低延遲推論進行了最佳化。它是一個多模態、雙變體的模型家族,旨在運行能夠搜尋、執行程式碼、呼叫服務,並在極大上下文(最高可達 2 million tokens)中進行推理的自主代理。
X

Grok 4

上下文:256K
輸入:$2.40/M
輸出:$12.00/M
Grok 4 是由 XAI 提供的人工智慧模型。目前支援文本模態,視覺、影像生成等功能即將推出。具備極為強大的技術參數與生態系能力:上下文視窗:支援最多 256,000 Token 的上下文處理,領先主流模型。
X

Grok 3 Reasoner

輸入:$2.40/M
輸出:$12.00/M
Grok-3 推理模型,具備思維鏈,是 Elon Musk 的 R1 競爭對手。此模型支援的最大上下文長度為 100,000 個標記。
X

Grok 3 Mini

輸入:$0.24/M
輸出:$0.40/M
在回應前先思考的輕量模型。快速、聰明,特別適合不需深厚領域知識的邏輯型任務。可存取原始思考歷程。此模型支援最長 100,000 個 token 的上下文長度。
X

Grok 3 DeepSearch

輸入:$2.40/M
輸出:$12.00/M
Grok-3 深度網路化搜尋模型。此模型支援的最大上下文長度為 100,000 個 token。
X

Grok 3 DeeperSearch

輸入:$2.40/M
輸出:$12.00/M
Grok-3 深度聯網搜尋模型,優於 grok-3-deepsearch。此模型支援最大上下文長度為 100,000 tokens。
X

Grok 3

輸入:$2.40/M
輸出:$12.00/M
Grok-3 是由 Elon Musk 的 xAI 公司於 2025 年 2 月 17 日發佈的最新人工智慧聊天機器人模型,其訓練叢集規模已達 200,000 卡等級,在數學、科學與程式設計等任務上表現優異,並被 Musk 稱為「地球上最聰明的 AI」。該模型支援最長 100,000 個 token 的上下文長度。
X

Grok 2

輸入:$0.80/M
輸出:$0.80/M
Grok 2 是由 XAI 提供的人工智慧模型。
D

DeepSeek-V3.2

上下文:128K
輸入:$0.22/M
輸出:$0.35/M
DeepSeek v3.2 是 DeepSeek V3 系列中最新的正式發佈版本:一個大型、推理優先的開放權重語言模型系列,旨在支援長上下文理解、穩健的 Agent/工具運用、高階推理、程式設計與數學。
D

DeepSeek-V3

輸入:$0.22/M
輸出:$0.88/M
最受歡迎且最具成本效益的 DeepSeek-V3 模型。671B 全血版。此模型支援的最大上下文長度為 64,000 個 token。
D

DeepSeek-V3.1

輸入:$0.44/M
輸出:$1.32/M
DeepSeek V3.1 是 DeepSeek 的 V-series 升級版本:一款混合式「思考/非思考」大型語言模型,旨在以高吞吐量、低成本提供通用智能與代理式工具使用能力。它保持 OpenAI 風格的 API 相容性,加入更智慧的工具呼叫,並——據該公司表示——實現更快的生成速度與更高的代理可靠性。
D

DeepSeek-R1T2-Chimera

輸入:$0.24/M
輸出:$0.24/M
一個 671B 參數的專家混合文本生成模型,由 DeepSeek-AI 的 R1-0528、R1 與 V3-0324 合併而成,支援最長 60k tokens 的上下文。
D

DeepSeek-Reasoner

輸入:$0.44/M
輸出:$1.75/M
DeepSeek-Reasoner 是 DeepSeek 的推理優先 LLM 與 API 端點系列,旨在 (1) 向呼叫者呈現其內部的思維鏈(CoT)推理,並且 (2) 在針對多步規劃、數學、程式設計與代理/工具使用調校的“思考”模式下運作。
D

DeepSeek-OCR

每次請求:$0.04
DeepSeek-OCR 是一款用於從影像與文件中擷取文字的光學字符識別模型。它可處理掃描頁面、照片與 UI 螢幕截圖,產出帶有版面線索(如換行)的轉錄文字。常見用途包括文件數位化、發票與收據錄入、搜尋索引建立,以及啟用 RPA 流程。技術亮點包括影像轉文字處理、支援掃描與拍攝內容,並提供可供下游解析的結構化文字輸出。
D

DeepSeek-Chat

上下文:64K
輸入:$0.22/M
輸出:$0.88/M
最受歡迎且具成本效益的 DeepSeek-V3 模型。671B 全血版。此模型支援最大 64,000 個 token 的上下文長度。
Q

Qwen Image

每次請求:$0.03
Qwen-Image is a revolutionary image generation foundational model released by Alibaba's Tongyi Qianwen team in 2025. With a parameter scale of 20 billion, it is based on the MMDiT (Multimodal Diffusion Transformer) architecture. The model has achieved significant breakthroughs in complex text rendering and precise image editing, demonstrating exceptional performance particularly in Chinese text rendering. Translated with DeepL.com (free version)
M

Kimi-K2

輸入:$0.45/M
輸出:$1.79/M
- **kimi-k2-250905**: Moonshot AI 的 Kimi K2 系列 0905 版本,支援超長上下文 (最多 256k tokens, 前端與工具呼叫)。 - 🧠 增強的工具呼叫:100% 準確率,無縫整合,適用於複雜任務與整合優化。 - ⚡️ 更高效的效能:TPS 可達 60-100 (標準 API),在 Turbo 模式下可達 600-100,提供更快的回應與更強的推理能力,知識截止時間可至 2025 年年中。
Q

qwen3-max-preview

輸入:$0.24/M
輸出:$2.42/M
- **qwen3-max-preview**: Alibaba Tongyi Qianwen team's latest Qwen3-Max-Preview model, positioned as the series' performance peak. - 🧠 Powerful Multimodal and Inference: Supports ultra-long context (up to 128k tokens) and Multimodal input, excels at complex Inference, code generation, translation, and creative content. - ⚡️ Breakthrough Improvement: Significantly optimized across multiple technical indicators, faster response speed, knowledge cutoff up to 2025, suitable for enterprise-level high-precision AI applications.
Q

qwen3-coder-plus-2025-07-22

輸入:$0.24/M
輸出:$0.97/M
Qwen3 Coder Plus stable version, released on July 22, 2025, provides higher stability, suitable for production deployment.
Q

qwen3-coder-plus

輸入:$0.24/M
輸出:$0.97/M
Q

qwen3-coder-480b-a35b-instruct

輸入:$0.24/M
輸出:$0.97/M
Q

qwen3-coder

輸入:$0.24/M
輸出:$0.97/M
Q

qwen3-8b

輸入:$0.04/M
輸出:$0.16/M
Q

qwen3-32b

輸入:$1.60/M
輸出:$6.40/M
Q

qwen3-30b-a3b

輸入:$0.12/M
輸出:$0.48/M
Has 3 billion parameters, balancing performance and resource requirements, suitable for enterprise-level applications. - This model may employ MoE or other optimized architectures, suitable for scenarios requiring efficient processing of complex tasks, such as intelligent customer service and content generation.
Q

qwen3-235b-a22b

輸入:$0.22/M
輸出:$2.22/M
Qwen3-235B-A22B is the flagship model of the Qwen3 series, with 23.5 billion parameters, using a Mixture of Experts (MoE) architecture. - Particularly suitable for complex tasks requiring high-performance Inference, such as coding, mathematics, and Multimodal applications.
Q

qwen3-14b

輸入:$0.80/M
輸出:$3.20/M
Q

qwen2.5-vl-72b-instruct

輸入:$2.40/M
輸出:$7.20/M
Q

qwen2.5-vl-72b

輸入:$2.40/M
輸出:$7.20/M
Q

qwen2.5-vl-32b-instruct

輸入:$2.40/M
輸出:$7.20/M
Q

qwen2.5-omni-7b

輸入:$60.00/M
輸出:$60.00/M
Q

qwen2.5-math-72b-instruct

輸入:$3.20/M
輸出:$3.20/M
Q

qwen2.5-coder-7b-instruct

輸入:$0.80/M
輸出:$0.80/M
Q

qwen2.5-coder-32b-instruct

輸入:$0.80/M
輸出:$0.80/M
Q

qwen2.5-7b-instruct

輸入:$0.80/M
輸出:$0.80/M
Q

qwen2.5-72b-instruct

輸入:$3.20/M
輸出:$3.20/M
Q

qwen2.5-32b-instruct

輸入:$0.96/M
輸出:$0.96/M
Q

qwen2.5-14b-instruct

輸入:$3.20/M
輸出:$3.20/M
Q

qwen2-vl-7b-instruct

輸入:$1.60/M
輸出:$1.60/M
Q

qwen2-vl-72b-instruct

輸入:$1.60/M
輸出:$1.60/M
Q

qwen2-7b-instruct

輸入:$0.16/M
輸出:$0.16/M
Q

qwen2-72b-instruct

輸入:$8.00/M
輸出:$8.00/M
Q

qwen2-57b-a14b-instruct

輸入:$3.20/M
輸出:$3.20/M
Q

qwen2-1.5b-instruct

輸入:$0.16/M
輸出:$0.16/M
Q

qwen1.5-7b-chat

輸入:$0.16/M
輸出:$0.16/M
Q

Qwen2.5-72B-Instruct-128K

輸入:$3.20/M
輸出:$3.20/M
M

mj_turbo_zoom

每次請求:$0.17
M

mj_turbo_variation

每次請求:$0.17
M

mj_turbo_upscale_subtle

每次請求:$0.17
M

mj_turbo_upscale_creative

每次請求:$0.17
M

mj_turbo_upscale

每次請求:$0.02
M

mj_turbo_upload

每次請求:$0.01
M

mj_turbo_shorten

每次請求:$0.17
M

mj_turbo_reroll

每次請求:$0.17
M

mj_turbo_prompt_analyzer_extended

每次請求:$0.00
M

mj_turbo_prompt_analyzer

每次請求:$0.00
M

mj_turbo_pic_reader

每次請求:$0.00
M

mj_turbo_pan

每次請求:$0.17
M

mj_turbo_modal

每次請求:$0.17
Submit the content in the modal popup, used for partial redrawing and Zoom functionality.
M

mj_turbo_low_variation

每次請求:$0.17
M

mj_turbo_inpaint

每次請求:$0.08
M

mj_turbo_imagine

每次請求:$0.17
M

mj_turbo_high_variation

每次請求:$0.17
M

mj_turbo_describe

每次請求:$0.00
M

mj_turbo_custom_zoom

每次請求:$0.00
M

mj_turbo_blend

每次請求:$0.17
M

mj_fast_zoom

每次請求:$0.06
M

mj_fast_video

每次請求:$0.60
Midjourney video generation
M

mj_fast_variation

每次請求:$0.06
M

mj_fast_upscale_subtle

每次請求:$0.06
M

mj_fast_upscale_creative

每次請求:$0.06
M

mj_fast_upscale

每次請求:$0.01
M

mj_fast_upload

每次請求:$0.01
M

mj_fast_shorten

每次請求:$0.06
M

mj_fast_reroll

每次請求:$0.06
M

mj_fast_prompt_analyzer_extended

每次請求:$0.00
M

mj_fast_prompt_analyzer

每次請求:$0.00
M

mj_fast_pic_reader

每次請求:$0.00
M

mj_fast_pan

每次請求:$0.06
M

mj_fast_modal

每次請求:$0.06
M

mj_fast_low_variation

每次請求:$0.06
M

mj_fast_inpaint

每次請求:$0.06
M

mj_fast_imagine

每次請求:$0.06
Midjourney drawing
M

mj_fast_high_variation

每次請求:$0.06
M

mj_fast_edits

每次請求:$0.06
M

mj_fast_describe

每次請求:$0.00
M

mj_fast_custom_zoom

每次請求:$0.00
M

mj_fast_blend

每次請求:$0.06
S

suno_uploads

每次請求:$0.02
上傳音樂
S

suno_persona_create

每次請求:$0.01
Create a personal style
S

suno_music

每次請求:$0.14
生成音樂
S

suno_lyrics

每次請求:$0.02
Generate lyrics
S

suno_concat

每次請求:$0.04
Song splicing
S

suno_act_wav

每次請求:$0.01
Get WAV format files
S

suno_act_timing

每次請求:$0.01
Timing: Lyrics, Audio timeline
S

suno_act_stems

每次請求:$0.01
S

suno_act_mp4

每次請求:$0.01
Generate MP4 MV
K

kling_virtual_try_on

每次請求:$0.20
K

kling_video

每次請求:$0.40
K

kling_tts

每次請求:$0.02
[語音合成] 全新上線:線上文字轉廣播級音訊,支援預覽功能 ● 可同時生成 audio_id,適用於任何 Keling API。
K

kling_multi_image2image

每次請求:$0.32
K

kling_multi_elements_submit

每次請求:$0.40
K

kling_multi_elements_preview

每次請求:$0.00
K

kling_multi_elements_init

每次請求:$0.00
K

kling_multi_elements_delete

每次請求:$0.00
K

kling_multi_elements_clear

每次請求:$0.00
K

kling_multi_elements_add

每次請求:$0.00
K

kling_lip_sync

每次請求:$0.20
K

kling_image_recognize

每次請求:$0.04
Keling 圖像元素辨識 API,可用於多張圖像參考的影片生成、多模態影片編輯功能 ● 可辨識主體、人臉、服裝等,每次請求可獲得 4 組結果(如可用)。
K

kling_image_expand

每次請求:$0.16
K

kling_image

每次請求:$0.02
K

kling_identify_face

每次請求:$0.02
K

kling_extend

每次請求:$0.40
K

kling_effects

每次請求:$0.40
K

kling_avatar_image2video

每次請求:$0.16
K

kling_audio_video_to_audio

每次請求:$0.20
K

kling_audio_text_to_audio

每次請求:$0.20
K

kling_advanced_lip_syn

每次請求:$0.20
D

Doubao Seedream 4-5

每次請求:$0.04
Seedream 4.5 是 ByteDance/Seed 的多模態圖像模型(文字→圖像 + 圖像編輯),專注於生產級的圖像保真度、更強的提示詞遵循度,以及大幅改進的編輯一致性(主體保留、文字/字體排版渲染與人臉真實感)。
D

doubao-seedream-4-0-250828

每次請求:$0.02
D

doubao-seedream-3-0-t2i-250415

每次請求:$0.02
D

doubao-seededit-3-0-i2i-250628

每次請求:$0.02
D

doubao-seed-1-6-thinking-250715

輸入:$0.04/M
輸出:$1.07/M
D

doubao-seed-1-6-flash-250615

輸入:$0.04/M
輸出:$1.07/M
D

doubao-seed-1-6-250615

輸入:$0.04/M
輸出:$1.07/M
D

doubao-1.5-vision-pro-250328

輸入:$0.33/M
輸出:$1.00/M
D

doubao-1.5-vision-lite-250315

輸入:$0.17/M
輸出:$0.50/M
D

doubao-1.5-pro-32k-250115

輸入:$0.18/M
輸出:$0.44/M
D

doubao-1.5-pro-256k

輸入:$1.10/M
輸出:$1.99/M
D

doubao-1-5-vision-pro-32k

輸入:$0.33/M
輸出:$1.00/M
D

doubao-1-5-thinking-vision-pro-250428

輸入:$0.33/M
輸出:$1.00/M
D

doubao-1-5-thinking-pro-250415

輸入:$0.45/M
輸出:$1.79/M
D

doubao-1-5-pro-32k-250115

輸入:$0.18/M
輸出:$0.44/M
D

doubao-1-5-pro-32k

輸入:$0.18/M
輸出:$0.44/M
D

doubao-1-5-pro-256k-250115

輸入:$0.56/M
輸出:$1.00/M
D

doubao-1-5-pro-256k

輸入:$1.10/M
輸出:$1.99/M
D

doubao-1-5-lite-32k-250115

輸入:$0.03/M
輸出:$0.07/M
D

Doubao-Seed-1.6-thinking

輸入:$0.04/M
輸出:$1.07/M
D

Doubao-Seed-1.6-flash

輸入:$0.04/M
輸出:$1.07/M
D

Doubao-Seed-1.6

輸入:$0.04/M
輸出:$1.07/M
D

Doubao-1.5-vision-pro-32k

輸入:$0.33/M
輸出:$1.00/M
D

Doubao-1.5-vision-pro

輸入:$0.33/M
輸出:$1.00/M
D

Doubao-1.5-vision-lite

輸入:$0.17/M
輸出:$0.50/M
D

Doubao-1.5-thinking-vision-pro

輸入:$0.33/M
輸出:$1.00/M
D

Doubao-1.5-thinking-pro

輸入:$0.45/M
輸出:$1.79/M
D

Doubao-1.5-pro-32k

輸入:$0.18/M
輸出:$0.44/M
D

Doubao-1.5-lite-32k

輸入:$0.07/M
輸出:$0.13/M
R

runwayml_video_to_video

每次請求:$0.96
R

runwayml_upscale_video

每次請求:$0.16
R

runwayml_text_to_image

每次請求:$0.32
R

runwayml_image_to_video

每次請求:$0.32
R

runwayml_character_performance

每次請求:$0.40
R

runway_video2video

每次請求:$0.20
R

runway_video

每次請求:$0.20
R

runway_act_one

每次請求:$0.40
R

Black Forest Labs/FLUX 2 PRO

每次請求:$0.06
FLUX 2 PRO 是 FLUX 2 系列中的旗艦級商用模型,提供最先進的圖像生成,帶來前所未有的品質與細節。專為專業與企業級應用打造,具備卓越的提示詞遵循度、照片級逼真輸出與出色的藝術創作能力。此模型代表 AI 圖像合成技術的尖端水準。
R

Black Forest Labs/FLUX 2 FLEX

每次請求:$0.19
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
R

Black Forest Labs/FLUX 2 DEV

每次請求:$0.06
FLUX 2 DEV is the development-friendly version optimized for research, experimentation, and non-commercial applications. It provides developers with powerful image generation capabilities while maintaining a balance between quality and computational efficiency. Perfect for prototyping, academic research, and personal creative projects.
R

stability-ai/stable-diffusion-3.5-medium

每次請求:$0.11
R

stability-ai/stable-diffusion-3.5-large-turbo

每次請求:$0.13
R

stability-ai/stable-diffusion-3.5-large

每次請求:$0.21
R

stability-ai/stable-diffusion-3

每次請求:$0.11
R

stability-ai/stable-diffusion

每次請求:$0.02
R

stability-ai/sdxl

每次請求:$0.03
R

recraft-ai/recraft-v3-svg

每次請求:$0.26
R

recraft-ai/recraft-v3

每次請求:$0.13
R

ideogram-ai/ideogram-v2-turbo

每次請求:$0.06
R

ideogram-ai/ideogram-v2

每次請求:$0.10
R

bria/remove-background

輸入:$60.00/M
輸出:$60.00/M
R

bria/increase-resolution

輸入:$60.00/M
輸出:$60.00/M
R

bria/image-3.2

輸入:$60.00/M
輸出:$60.00/M
R

bria/genfill

輸入:$60.00/M
輸出:$60.00/M
R

bria/generate-background

輸入:$60.00/M
輸出:$60.00/M
R

bria/expand-image

輸入:$60.00/M
輸出:$60.00/M
R

bria/eraser

輸入:$60.00/M
輸出:$60.00/M
R

black-forest-labs/flux-schnell

每次請求:$0.01
black-forest-labs/flux-schnell 是 Black Forest Labs 推出的文字到圖像生成模型,專為快速取樣與迭代式提示探索而設計。它可從簡短提示合成多樣風格與構圖,支援負面提示與種子控制,並能產出適用於產品模型圖、概念藝術與行銷視覺素材的高解析度輸出。典型用例包括互動式發想、縮圖與橫幅生成,以及內容管線中的自動化創意變體。技術亮點包括與 Hugging Face Diffusers 堆疊的相容性、彈性的解析度控制,以及在常見 GPU 上為速度調校的高效率取樣器。
R

black-forest-labs/flux-pro

每次請求:$0.18
black-forest-labs/flux-pro 是 Black Forest Labs 推出的文字轉圖像生成模型,適用於跨各種風格與主題的高保真圖像合成。它可將詳盡的提示轉化為連貫的構圖,並可透過標準生成參數控制長寬比與風格等屬性。典型用途包括概念藝術、產品視覺化、行銷創意,以及設計工作流程中的寫實場景。技術亮點包括文字轉圖像模態、類指令式的提示遵循,以及與常見圖像生成工具鏈的整合。
R

black-forest-labs/flux-kontext-pro

每次請求:$0.05
black-forest-labs/flux-kontext-pro 是一個用於情境感知影像生成的多模態擴散模型。它可根據文字提示與可選的參考影像合成影像,並保留構圖與風格線索,以產生貼合參考的結果。典型用途包括品牌資產製作、產品視覺,以及透過情緒板或示例照片進行視覺發想。技術亮點包括文字與影像輸入、參考條件化取樣,以及透過種子控制實現可重現的輸出。
R

black-forest-labs/flux-kontext-max

每次請求:$0.10
black-forest-labs/flux-kontext-max 是 FLUX 系列中的一款以情境條件化為特色的圖像生成模型,旨在從文字生成圖像,並可選用參考輸入。它支援貼合情境的合成、風格或主體保留,以及在所提供的視覺情境指引下實現可控變化。典型應用包括品牌一致的創意內容、產品示意圖、角色連貫性,以及情緒板驅動的發想。技術亮點包括基於擴散的生成與結合文字與參考輸入的多模態條件化,適用於參考引導的工作流程。
R

black-forest-labs/flux-dev

每次請求:$0.08
black-forest-labs/flux-dev 是 Black Forest Labs 推出的開放權重文字到圖像模型,可依據自然語言提示詞生成圖像。它能從詳細提示詞產生寫實與風格化的結果,並與擴散工具鏈中的常見控制選項相容。典型用途包括概念美術、產品視覺化、行銷圖像,以及設計流程中的快速創意探索。技術亮點包括基於 Transformer 的 rectified-flow 設計、與 Hugging Face Diffusers 函式庫的整合,以及可透過標準 GPU 推論堆疊部署。
R

black-forest-labs/flux-1.1-pro-ultra

每次請求:$0.19
black-forest-labs/flux-1.1-pro-ultra 是一款文本到圖像的擴散式 Transformer,專為從自然語言提示詞進行生產級圖像合成而設計。它能根據複雜指令生成細節豐富的輸出,並提供對風格、構圖、長寬比、負面提示詞與種子可重現性的控制。典型用途包括行銷創意、產品可視化、概念藝術與內容構思。技術亮點包括基於 Transformer 的擴散、文本編碼器引導,以及透過常見推理 API 部署,並可配置調度器與引導參數。
R

black-forest-labs/flux-1.1-pro

每次請求:$0.13
black-forest-labs/flux-1.1-pro 是 Black Forest Labs 推出的文本到影像生成模型,能實現可控且高保真的視覺效果。它可解析詳細提示詞,生成跨風格與主題的構圖,並支援在常見擴散式工作流程中的迭代優化與影像變體。典型用途包括概念藝術、產品模型圖、行銷圖像與場景探索。技術亮點包括以文本為條件的影像合成,及與擴散模型所用的標準推論工具鏈的整合。
F

FLUX 2 PRO

每次請求:$0.08
FLUX 2 PRO is the flagship commercial model in the FLUX 2 series, delivering state-of-the-art image generation with unprecedented quality and detail. Built for professional and enterprise applications, it offers superior prompt adherence, photorealistic outputs, and exceptional artistic capabilities. This model represents the cutting edge of AI image synthesis technology.
F

FLUX 2 FLEX

每次請求:$0.01
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
L

Llama-4-Scout

輸入:$0.22/M
輸出:$1.15/M
Llama-4-Scout 是一款用於助理式互動與自動化的通用型語言模型。它能處理遵循指令、推理、摘要與轉換等任務,並可支援輕量的程式碼相關協助。典型用例包括對話編排、知識增強的 QA,以及結構化內容生成。技術亮點包括與工具/函式呼叫模式的相容性、檢索增強的提示,以及受模式約束的輸出,便於整合至產品工作流程。
L

Llama-4-Maverick

輸入:$0.48/M
輸出:$1.44/M
Llama-4-Maverick 是一款用於文字理解與生成的通用型語言模型。它支援對話式問答、摘要、結構化撰寫與基礎程式碼協助,並提供結構化輸出選項。常見應用包括產品助理、知識檢索前端,以及需要一致格式的工作流程自動化。參數量、上下文視窗、模態以及工具或函式呼叫等技術細節會因發行版本而異;請依部署的文件所載能力進行整合。
M

minimax_video-01

每次請求:$1.44
M

minimax_minimax-hailuo-02

每次請求:$2.88
M

minimax_files_retrieve

每次請求:$0.00
M

minimax-m2

輸入:$0.24/M
輸出:$0.96/M
minimax-m2 是一款緊湊且高效的大型語言模型,針對端到端程式設計與代理工作流程進行最佳化,擁有 10 billion 個活躍參數(230 billion 總參數),在通用推理、工具使用與多步驟任務執行方面的表現接近最先進水準,同時保持低延遲與高部署效率。該模型在程式碼產生、多檔案編輯、編譯-執行-修復迴圈,以及測試驗證中的缺陷修復方面表現突出,並在 SWE-Bench Verified、Multi-SWE-Bench、Terminal-Bench 等基準測試中取得優異成績;在 BrowseComp 和 GAIA 等代理評測中的長週期任務規劃、資訊檢索與執行錯誤復原方面亦展現出競爭力。根據 Artificial Analysis 的評級,MiniMax-M2 在數學、科學推理與指令遵循等綜合智能領域位列開源模型的頂尖行列。其較小的活躍參數量帶來快速推理、高併發與更佳的單位經濟性,非常適合大規模代理部署、開發者輔助工具,以及對回應速度與成本效率有要求的以推理為驅動的應用。
F

flux-pro-finetuned

每次請求:$0.07
F

flux-pro-1.1-ultra-finetuned

每次請求:$0.10
F

flux-pro-1.1-ultra

每次請求:$0.07
F

flux-pro-1.1

每次請求:$0.05
F

flux-pro-1.0-fill-finetuned

每次請求:$0.10
F

flux-pro-1.0-fill

每次請求:$0.06
F

flux-pro-1.0-depth-finetuned

每次請求:$0.10
F

flux-pro-1.0-depth

每次請求:$0.06
F

flux-pro-1.0-canny-finetuned

每次請求:$0.10
F

flux-pro-1.0-canny

每次請求:$0.06
F

flux-pro

每次請求:$0.05
F

flux-kontext-pro

每次請求:$0.05
F

flux-kontext-max

每次請求:$0.10
F

flux-finetune

每次請求:$0.05
F

flux-dev

每次請求:$0.03
H

hunyuan-vision

輸入:$2.01/M
輸出:$2.01/M
H

hunyuan-turbos-vision-20250619

輸入:$0.33/M
輸出:$1.00/M
H

hunyuan-turbos-vision

輸入:$0.33/M
輸出:$1.00/M
H

hunyuan-turbos-longtext-128k-20250325

輸入:$0.17/M
輸出:$0.67/M
H

hunyuan-turbos-latest

輸入:$0.09/M
輸出:$0.22/M
H

hunyuan-turbos-20250604

輸入:$0.09/M
輸出:$0.22/M
H

hunyuan-turbos-20250515

輸入:$0.09/M
輸出:$0.22/M
H

hunyuan-turbos-20250416

輸入:$0.09/M
輸出:$0.22/M
H

hunyuan-turbos-20250313

輸入:$0.09/M
輸出:$0.22/M
H

hunyuan-t1-vision-20250619

輸入:$0.11/M
輸出:$0.45/M
H

hunyuan-t1-vision

輸入:$0.11/M
輸出:$0.45/M
H

hunyuan-t1-latest

輸入:$0.11/M
輸出:$0.45/M
H

hunyuan-t1-20250711

輸入:$0.11/M
輸出:$0.45/M
H

hunyuan-t1-20250529

輸入:$0.11/M
輸出:$0.45/M
H

hunyuan-t1-20250521

輸入:$0.11/M
輸出:$0.45/M
H

hunyuan-t1-20250403

輸入:$0.11/M
輸出:$0.45/M
H

hunyuan-t1-20250321

輸入:$0.11/M
輸出:$0.45/M
H

hunyuan-standard-256K

輸入:$0.06/M
輸出:$0.22/M
H

hunyuan-standard

輸入:$0.09/M
輸出:$0.22/M
H

hunyuan-role

輸入:$0.45/M
輸出:$0.89/M
H

hunyuan-pro

輸入:$1.60/M
輸出:$1.60/M
H

hunyuan-lite

輸入:$1.60/M
輸出:$1.60/M
H

hunyuan-large-vision

輸入:$0.45/M
輸出:$1.34/M
H

hunyuan-large

輸入:$0.45/M
輸出:$1.34/M
H

hunyuan-functioncall

輸入:$0.45/M
輸出:$0.89/M
H

hunyuan-embedding

輸入:$0.08/M
輸出:$0.08/M
H

hunyuan-code

輸入:$0.39/M
輸出:$0.78/M
H

hunyuan-all

輸入:$0.11/M
輸出:$0.22/M
H

hunyuan-a13b

輸入:$0.06/M
輸出:$0.22/M
H

hunyuan

輸入:$0.11/M
輸出:$0.11/M
Z

glm-zero-preview

輸入:$60.00/M
輸出:$60.00/M
Z

glm-4v-plus

輸入:$4.80/M
輸出:$4.80/M
Z

glm-4v

輸入:$24.00/M
輸出:$24.00/M
Z

GLM 4.6

上下文:200
輸入:$0.64/M
輸出:$2.56/M
Zhipu 的最新旗艦模型 GLM-4.6 發佈:總參數量 355B,活躍參數 32B。整體核心能力超越 GLM-4.5。程式設計:與 Claude Sonnet 4 對齊,中國最佳。上下文:擴充至 200K(原為 128K)。推理:有所提升,支援 Tool 呼叫。搜尋:優化 Tool 與 agent 框架。寫作:更貼合人類偏好、文風與角色扮演。多語言:翻譯效果提升。
Z

glm-4.5-x

輸入:$3.20/M
輸出:$12.80/M
High-performance, strong Inference, extremely fast response model, optimized for scenarios requiring ultra-fast Inference speed and powerful logical capabilities, providing millisecond-level response experience.
Z

glm-4.5-flash

輸入:$0.16/M
輸出:$0.64/M
GLM-4.5-Flash is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5-airx

輸入:$1.60/M
輸出:$6.40/M
Lightweight, high-performance, ultra-fast response model, perfectly combining the cost advantages of Air and the speed advantages of X, an ideal choice for balancing performance and efficiency.
Z

glm-4.5-air

輸入:$0.16/M
輸出:$1.07/M
GLM-4.5-Air is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5

輸入:$0.48/M
輸出:$1.92/M
GLM-4.5 is an artificial intelligence model provided by ZhipuAI.
Z

glm-4-plus

輸入:$24.00/M
輸出:$24.00/M
Z

glm-4-long

輸入:$0.48/M
輸出:$0.48/M
Z

glm-4-flash

輸入:$0.05/M
輸出:$0.05/M
Z

glm-4-airx

輸入:$4.80/M
輸出:$4.80/M
Z

glm-4-air

輸入:$0.48/M
輸出:$0.48/M
Z

glm-4-0520

輸入:$24.00/M
輸出:$24.00/M
Z

glm-4

輸入:$24.00/M
輸出:$24.00/M
Z

glm-3-turbo

輸入:$1.60/M
輸出:$1.60/M