O

GPT-5.2 Pro

Contexto:400,000
Entrada:$12.00/M
Saída:$96.00/M
gpt-5.2-pro é o membro de maior capacidade, voltado para produção, da família GPT-5.2 da OpenAI, disponibilizado por meio da Responses API para cargas de trabalho que exigem fidelidade máxima, raciocínio em múltiplas etapas, uso extensivo de ferramentas e os maiores limites de contexto e de taxa de transferência que a OpenAI oferece.
O

GPT-5.2 Chat

Contexto:128,000
Entrada:$1.40/M
Saída:$11.20/M
gpt-5.2-chat-latest é o snapshot otimizado para chat da família GPT-5.2 da OpenAI (apresentado no ChatGPT como GPT-5.2 Instant). É o modelo para casos de uso interativos/de chat que precisam de uma combinação de velocidade, capacidade de lidar com contextos longos, entradas multimodais e comportamento conversacional confiável.
O

GPT-5.2

Contexto:400,000
Entrada:$1.40/M
Saída:$11.20/M
GPT-5.2 é uma suíte de modelos com múltiplas variantes (Instant, Thinking, Pro), projetada para melhor compreensão de contextos longos, programação e uso de ferramentas mais avançados, e desempenho substancialmente superior em benchmarks profissionais de “trabalho do conhecimento”.
O

GPT-5.1 Chat

Contexto:400.0k
Entrada:$1.00/M
Saída:$8.00/M
GPT-5.1 Chat é um modelo de linguagem conversacional ajustado por instruções para conversas de uso geral, raciocínio e escrita. Ele oferece suporte a diálogos multiturno, resumo, elaboração de rascunhos, perguntas e respostas em base de conhecimento e assistência de código leve para assistentes em aplicativos, automação de suporte e copilotos de fluxo de trabalho. Os destaques técnicos incluem alinhamento otimizado para chat, saídas controláveis e estruturadas e caminhos de integração para invocação de ferramentas e fluxos de trabalho de recuperação, quando disponíveis.
O

GPT-5.1

Entrada:$1.00/M
Saída:$8.00/M
GPT-5.1 é um modelo de linguagem de uso geral, ajustado para seguir instruções, com foco na geração de texto e no raciocínio em fluxos de trabalho de produto. Ele oferece suporte a diálogos de múltiplas voltas, formatação de saída estruturada e tarefas orientadas a código, como elaboração, refatoração e explicação. Os usos típicos incluem assistentes de chat, QA com recuperação aumentada, transformação de dados e automação em estilo agente com ferramentas ou APIs quando houver suporte. Os destaques técnicos incluem modalidade centrada em texto, seguimento de instruções, saídas no estilo JSON e compatibilidade com chamadas de função em frameworks comuns de orquestração.
O

GPT-5 nano

Contexto:400K
Entrada:$0.04/M
Saída:$0.32/M
O GPT-5 Nano é um modelo de inteligência artificial fornecido pela OpenAI.
O

GPT-5 mini

Contexto:400K
Entrada:$0.20/M
Saída:$1.60/M
GPT-5 mini é o membro otimizado para custo e latência da família GPT-5 da OpenAI, destinado a oferecer grande parte das capacidades multimodais e de seguimento de instruções do GPT-5 a um custo substancialmente menor para uso em produção em larga escala. É voltado para ambientes em que a taxa de processamento, a precificação por token previsível e as respostas rápidas são as principais restrições, sem deixar de oferecer fortes capacidades de uso geral.
O

GPT 5 Chat

Contexto:400K
Entrada:$1.00/M
Saída:$8.00/M
GPT-5 Chat (mais recente) é um modelo de inteligência artificial fornecido pela OpenAI.
O

GPT-5

Contexto:400K
Entrada:$1.00/M
Saída:$8.00/M
O GPT-5 é o modelo de programação mais poderoso da OpenAI até o momento. Ele apresenta melhorias significativas na geração de front-ends complexos e na depuração de grandes bases de código. Consegue transformar ideias em realidade com resultados intuitivos e esteticamente agradáveis, criando sites, aplicativos e jogos bonitos e responsivos, com um apurado senso estético, tudo a partir de um único prompt. Os primeiros testadores também observaram suas decisões de design, com uma compreensão mais profunda de elementos como espaçamento, tipografia e espaços em branco.
O

GPT-4.1 nano

Contexto:1.0M
Entrada:$0.08/M
Saída:$0.32/M
GPT-4.1 nano é um modelo de inteligência artificial fornecido pela OpenAI. gpt-4.1-nano: Apresenta uma janela de contexto maior—oferecendo suporte a até 1 milhão de tokens de contexto e capaz de utilizar melhor esse contexto por meio de uma compreensão aprimorada de contextos longos. Possui uma data de corte de conhecimento atualizada para junho de 2024. Este modelo oferece suporte a um comprimento máximo de contexto de 1,047,576 tokens.
O

GPT-4.1

Contexto:1.0M
Entrada:$1.60/M
Saída:$6.40/M
GPT-4.1 é um modelo de inteligência artificial fornecido pela OpenAI. gpt-4.1-nano: Apresenta uma janela de contexto maior—suportando até 1 milhão de tokens de contexto e capaz de utilizar melhor esse contexto por meio de uma compreensão aprimorada de contextos longos. Possui uma data de corte de conhecimento atualizada para junho de 2024. Este modelo suporta um comprimento máximo de contexto de 1,047,576 tokens.
O

GPT-4o mini

Entrada:$0.12/M
Saída:$0.48/M
GPT-4o mini é um modelo de inteligência artificial fornecido pela OpenAI.
O

Whisper-1

Entrada:$24.00/M
Saída:$24.00/M
请确认您的需求:是否需要将语音转文字并进行翻译?请提供: - 源内容:音频文件或已转写的文本 - 目标语言:如葡萄牙语(或其他) - 输出格式:纯文本、SRT、VTT、JSON 等 - 术语或风格偏好(可选)
O

TTS

Entrada:$12.00/M
Saída:$12.00/M
OpenAI Texto para Fala
O

Sora 2 Pro

Por Segundo:$0.24
Sora 2 Pro é nosso modelo de geração de mídia mais avançado e poderoso, capaz de gerar vídeos com áudio sincronizado. Ele pode criar clipes de vídeo detalhados e dinâmicos a partir de linguagem natural ou imagens.
O

Sora 2

Por Segundo:$0.08
Modelo de geração de vídeo superpotente, com efeitos sonoros, suporta o formato de chat.
O

GPT Image 1 mini

Entrada:$2.00/M
Saída:$6.40/M
Versão com custo otimizado do GPT Image 1. É um modelo de linguagem multimodal nativo que aceita tanto texto quanto imagem como entrada e gera saída de imagem.
O

GPT 4.1 mini

Contexto:1.0M
Entrada:$0.32/M
Saída:$1.28/M
GPT-4.1 mini é um modelo de inteligência artificial fornecido pela OpenAI. gpt-4.1-mini: Um salto significativo no desempenho de modelos pequenos, superando até o GPT-4o em muitos benchmarks. Ele iguala ou supera o GPT-4o em avaliações de inteligência, ao mesmo tempo que reduz a latência em quase metade e o custo em 83%. Este modelo suporta um comprimento máximo de contexto de 1,047,576 tokens.
O

o4-mini-deep-research

Contexto:200K
Entrada:$1.60/M
Saída:$6.40/M
O4-Mini-Deep-Research é o mais recente modelo de raciocínio agêntico da OpenAI, combinando o backbone leve o4-mini com o avançado framework Deep Research. Projetado para oferecer uma síntese profunda de informações rápida e econômica, permite que desenvolvedores e pesquisadores realizem pesquisas automatizadas na web, análise de dados e raciocínio em cadeia em uma única chamada de API.
O

o4-mini

Entrada:$0.88/M
Saída:$3.52/M
O4-mini é um modelo de inteligência artificial fornecido pela OpenAI.
O

O3 Pro

Contexto:200K
Entrada:$16.00/M
Saída:$64.00/M
OpenAI o3‑pro é uma variante “pro” do modelo de raciocínio o3, projetada para raciocinar por mais tempo e fornecer as respostas mais confiáveis, empregando aprendizado por reforço com cadeia de raciocínio privada e estabelecendo novos benchmarks de ponta em domínios como ciência, programação e negócios — enquanto integra, de forma autônoma, ferramentas como pesquisa na web, análise de arquivos, execução de Python e raciocínio visual na API.
O

o3-mini

Entrada:$0.88/M
Saída:$3.52/M
O3-mini é um modelo de inteligência artificial fornecido pela OpenAI.
O

o3-deep-research

Entrada:$8.00/M
Saída:$32.00/M
Um agente de pesquisa profunda em rede, baseado no modelo O3, com suporte a inferência em múltiplas etapas e relatórios de análise de citações.
O

o3

Entrada:$1.60/M
Saída:$6.40/M
O3 é um modelo de inteligência artificial fornecido pela OpenAI.
O

GPT-4o mini Audio

Entrada:$0.12/M
Saída:$0.48/M
GPT-4o mini Audio é um modelo multimodal para interações de fala e texto. Ele realiza reconhecimento de fala, tradução e conversão de texto em fala, segue instruções e pode acionar ferramentas para ações estruturadas com respostas em streaming. Os usos típicos incluem assistentes de voz em tempo real, legendagem e tradução ao vivo, resumo de chamadas e aplicações controladas por voz. Os destaques técnicos incluem entrada e saída de áudio, respostas em streaming, chamadas de função e saída JSON estruturada.
O

codex-mini-latest

Entrada:$1.20/M
Saída:$4.80/M
Codex Mini é um modelo de inteligência artificial fornecido pela OpenAI. É o mais recente avanço da OpenAI em geração de código, um modelo leve especificamente otimizado para a interface de linha de comando do Codex (CLI). Como uma versão ajustada por fine-tuning do o4-mini, este modelo herda a alta eficiência e a velocidade de resposta do modelo base, ao mesmo tempo em que é especialmente otimizado para a compreensão e a geração de código.
O

GPT-4o mini TTS

Entrada:$9.60/M
Saída:$38.40/M
GPT-4o mini TTS é um modelo neural de texto para fala projetado para geração de voz natural e de baixa latência em aplicações voltadas ao usuário. Ele converte texto em fala com som natural, com vozes selecionáveis, saída em vários formatos e síntese por streaming para experiências responsivas. Os usos típicos incluem assistentes de voz, IVR e fluxos de contato, leitura em voz alta de produtos e narração de mídia. Os destaques técnicos incluem streaming baseado em API e exportação para formatos de áudio comuns, como MP3 e WAV.
O

GPT-4o Realtime

Entrada:$60.00/M
Saída:$240.00/M
A Realtime API permite que desenvolvedores criem experiências multimodais de baixa latência, incluindo funcionalidade de fala para fala. Texto e áudio processados pela Realtime API são cobrados separadamente. Este modelo oferece suporte a um comprimento máximo de contexto de 128,000 tokens.
O

GPT-4o Search

Entrada:$60.00/M
Saída:$60.00/M
GPT-4o Search é um modelo multimodal baseado em GPT-4o, configurado para raciocínio aumentado por busca e para fornecer respostas fundamentadas e atuais. Ele segue instruções e usa ferramentas de busca na web para recuperar, avaliar e sintetizar informações externas, com contexto da fonte quando disponível. Os usos típicos incluem assistência à pesquisa, verificação de fatos, monitoramento de notícias e tendências e resposta a consultas sensíveis ao tempo. Entre os destaques técnicos estão a invocação de ferramentas/funções para navegação e recuperação, o suporte a contextos longos e saídas estruturadas adequadas para citações e links.
O

ChatGPT-4o

Entrada:$4.00/M
Saída:$12.00/M
Com base na iteração mais recente do GPT-4o, um grande modelo de linguagem multimodal (LLM) que suporta entrada/saída de texto, imagem, áudio e vídeo.
O

tts-1-hd-1106

Entrada:$24.00/M
Saída:$24.00/M
O

tts-1-hd

Entrada:$24.00/M
Saída:$24.00/M
O

tts-1-1106

Entrada:$12.00/M
Saída:$12.00/M
O

tts-1

Entrada:$12.00/M
Saída:$12.00/M
O

text-embedding-ada-002

Entrada:$0.08/M
Saída:$0.08/M
An Ada-based text embedding model optimized for various NLP tasks.
O

text-embedding-3-small

Entrada:$0.02/M
Saída:$0.02/M
A small text embedding model for efficient processing.
O

text-embedding-3-large

Entrada:$0.10/M
Saída:$0.10/M
A large text embedding model for a wide range of natural language processing tasks.
O

omni-moderation-latest

Por Solicitação:$0.00
O

omni-moderation-2024-09-26

Por Solicitação:$0.00
O

o1-pro-all

Entrada:$120.00/M
Saída:$480.00/M
O

o1-pro-2025-03-19

Entrada:$120.00/M
Saída:$480.00/M
O

o1-pro

Entrada:$120.00/M
Saída:$480.00/M
O1-pro is an artificial intelligence model provided by OpenAI.
O

o1-preview-all

Por Solicitação:$0.16
O

o1-preview-2024-09-12

Entrada:$12.00/M
Saída:$48.00/M
O

o1-preview

Entrada:$12.00/M
Saída:$48.00/M
O1-preview is an artificial intelligence model provided by OpenAI.
O

o1-mini-all

Por Solicitação:$0.08
O

o1-mini-2024-09-12

Entrada:$0.88/M
Saída:$3.52/M
O

o1-mini

Entrada:$0.88/M
Saída:$3.52/M
O1-mini is an artificial intelligence model provided by OpenAI.
O

o1-all

Por Solicitação:$0.16
O

o1-2024-12-17

Entrada:$12.00/M
Saída:$48.00/M
O

o1

Entrada:$12.00/M
Saída:$48.00/M
O1 is an artificial intelligence model provided by OpenAI.
O

gpt-realtime-mini

Entrada:$0.48/M
Saída:$0.96/M
Uma versão econômica do GPT em tempo real — capaz de responder a entradas de áudio e texto em tempo real via conexões WebRTC, WebSocket ou SIP.
C

gpt-oss-20b

Entrada:$0.08/M
Saída:$0.32/M
gpt-oss-20b is an artificial intelligence model provided by cloudflare-workers-ai.
C

gpt-oss-120b

Entrada:$0.16/M
Saída:$0.80/M
gpt-oss-120b is an artificial intelligence model provided by cloudflare-workers-ai.
O

gpt-image-1

Entrada:$8.00/M
Saída:$32.00/M
An advanced AI model for generating images from text descriptions.
O

gpt-4o-all

Entrada:$2.00/M
Saída:$8.00/M
<div>GPT-4o is OpenAI's most advanced Multimodal model, faster and cheaper than GPT-4 Turbo, with stronger visual capabilities. This model has a 128K context and a knowledge cutoff of October 2023. Models in the 1106 series and above support tool_calls and function_call.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision-preview

Entrada:$2.00/M
Saída:$8.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision

Entrada:$8.00/M
Saída:$24.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-v

Por Solicitação:$0.04
O

gpt-4-turbo-preview

Entrada:$8.00/M
Saída:$24.00/M
<div>gpt-4-turbo-preview Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo-2024-04-09

Entrada:$8.00/M
Saída:$24.00/M
<div>gpt-4-turbo-2024-04-09 Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo

Entrada:$8.00/M
Saída:$24.00/M
GPT-4 Turbo is an artificial intelligence model provided by OpenAI.
O

gpt-4-search

Por Solicitação:$0.04
O

gpt-4-gizmo-*

Entrada:$24.00/M
Saída:$48.00/M
O

gpt-4-gizmo

Entrada:$24.00/M
Saída:$48.00/M
O

gpt-4-dalle

Por Solicitação:$0.04
O

gpt-4-all

Entrada:$24.00/M
Saída:$48.00/M
A

gpt-4-32k

Entrada:$48.00/M
Saída:$96.00/M
GPT-4 32K is an artificial intelligence model provided by Azure.
O

gpt-4-1106-preview

Entrada:$8.00/M
Saída:$16.00/M
O

gpt-4-0613

Entrada:$24.00/M
Saída:$48.00/M
O

gpt-4-0314

Entrada:$24.00/M
Saída:$48.00/M
O

gpt-4-0125-preview

Entrada:$8.00/M
Saída:$16.00/M
O

gpt-4

Entrada:$24.00/M
Saída:$48.00/M
GPT-4 is an artificial intelligence model provided by OpenAI.
O

gpt-3.5-turbo-0125

Entrada:$0.40/M
Saída:$1.20/M
GPT-3.5 Turbo 0125 is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

gpt-3.5-turbo

Entrada:$0.40/M
Saída:$1.20/M
GPT-3.5 Turbo is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

dall-e-3

Por Solicitação:$0.02
New version of DALL-E for image generation.
O

dall-e-2

Entrada:$8.00/M
Saída:$32.00/M
An AI model that generates images from text descriptions.
C

Claude Sonnet 4.5

Contexto:200K
Entrada:$2.40/M
Saída:$12.00/M
O Claude Sonnet 4.5 representa um salto significativo nas capacidades de aplicação computacional. No OSWorld, uma plataforma de benchmark para testar modelos de IA em tarefas computacionais do mundo real, o Sonnet 4.5 saltou para o topo com 61.4%, ao passo que, apenas quatro meses antes, o Sonnet 4 liderava com 42.2%. Nossa extensão Claude para Chrome coloca esses recursos aprimorados em prática.
A

Claude Opus 4.5

Contexto:200K
Entrada:$4.00/M
Saída:$20.00/M
Claude Opus 4.5 é um modelo de linguagem de grande porte ajustado por instruções, da Anthropic, projetado para raciocínio complexo, programação e conversas de múltiplas etapas. Ele oferece suporte ao processamento de contexto estendido, chamadas a ferramentas e funções, saídas estruturadas e integração com fluxos de trabalho aumentados por recuperação. Casos de uso típicos incluem assistentes analíticos, geração e revisão de código, perguntas e respostas em bases de conhecimento e redação de conteúdo com respostas alinhadas às políticas. Os destaques técnicos incluem capacidade de seguir instruções, comportamento compatível com RAG e controles de segurança disponíveis nas implantações do Claude.
C

Claude Opus 4.1

Contexto:200K
Entrada:$12.00/M
Saída:$60.00/M
Claude Opus 4.1 é uma versão atualizada do modelo principal da Anthropic, oferecendo desempenho aprimorado em programação, inferência e tarefas de agentes. Alcança 74.5% no SWE-bench Verified, mostrando melhorias significativas em refatoração de código em múltiplos arquivos, precisão de depuração e inferência orientada a detalhes. Este modelo suporta raciocínio estendido de até 64K tokens e está otimizado para tarefas que envolvem pesquisa, análise de dados e inferência assistida por ferramentas.
C

Claude 4 Sonnet

Contexto:200K
Entrada:$2.40/M
Saída:$12.00/M
Mais rápido, modelo com a melhor relação custo-benefício, janela de contexto de 200K.
C

Claude Opus 4

Contexto:200K
Entrada:$12.00/M
Saída:$60.00/M
O equilíbrio ideal entre inteligência, custo e velocidade. Janela de contexto de 200K.
C

Claude 3.7 Sonnet

Entrada:$2.40/M
Saída:$12.00/M
A grande jogada de Claude contra o R1: o poderoso 3.7 está oficialmente no ar. Este modelo suporta uma janela de contexto máxima de 200.000 tokens. Com suporte a raciocínio.
C

Claude Haiku 4.5

Contexto:200K
Entrada:$0.80/M
Saída:$4.00/M
Modelo mais rápido e com melhor custo-benefício.
C

Claude 3.5 Haiku

Entrada:$0.80/M
Saída:$4.00/M
Esses aliases apontam automaticamente para o instantâneo mais recente de um determinado modelo. Embora úteis para experimentação, recomendamos usar versões específicas do modelo (por exemplo, claude-3-5-sonnet-20241022) em aplicações em produção para garantir um comportamento consistente. Quando lançarmos novos instantâneos do modelo, migraremos o alias -latest para apontar para a nova versão (normalmente dentro de uma semana após o lançamento da nova versão). O alias -latest tem os mesmos limites de taxa e preços que a versão subjacente do modelo à qual se refere. Este modelo suporta um comprimento máximo de contexto de 200,000 tokens.
C

Claude 3 Haiku

Entrada:$0.20/M
Saída:$1.00/M
Claude Haiku 3 é um modelo de inteligência artificial fornecido pela Anthropic.
G

Veo 3.1 Pro

Por Solicitação:$2.00
Veo 3.1-Pro refere-se ao acesso/configuração avançados da família Veo 3.1 do Google — uma geração de modelos de vídeo de curta duração, com suporte a áudio, que acrescentam áudio nativo mais rico, controles de narrativa/edição aprimorados e ferramentas de extensão de cenas.
G

Veo 3.1

Por Solicitação:$0.40
Veo 3.1 é a atualização incremental, porém significativa, da família Veo de texto e imagem→vídeo do Google, adicionando áudio nativo mais rico, saídas de vídeo mais longas e mais controláveis e controles de edição e em nível de cena mais refinados.
G

Veo 3 Pro

Por Solicitação:$2.00
Veo 3 pro designa a experiência do modelo de vídeo Veo 3 pronta para produção (alta fidelidade, áudio nativo e conjunto de ferramentas ampliado).
G

Veo 3 Fast

Por Solicitação:$0.40
Veo 3 Fast é a variante otimizada para velocidade da família de modelos de vídeo generativos do Google (Veo 3 / Veo 3.1 etc.). É projetado para produzir clipes de vídeo curtos e de alta qualidade com áudio gerado nativamente, priorizando a taxa de processamento e o custo por segundo — trocando parte da fidelidade visual de ponta e/ou uma duração mais longa de um único plano por geração muito mais rápida e preço mais baixo. O que é o Veo 3 Fast — introdução concisa
G

Veo 3

Por Solicitação:$0.40
O Veo 3 da Google DeepMind representa o estado da arte da geração de texto para vídeo, marcando a primeira vez que um modelo de IA generativa em larga escala sincroniza perfeitamente vídeo de alta fidelidade com áudio correspondente — incluindo diálogos, efeitos sonoros e paisagens sonoras ambientais.
G

Gemini 2.5 Pro

Contexto:1M
Entrada:$1.00/M
Saída:$8.00/M
Gemini 2.5 Pro é um modelo de inteligência artificial fornecido pelo Google. Ele possui capacidades nativas de processamento multimodal e uma janela de contexto ultralonga de até 1 milhão de tokens, oferecendo um suporte poderoso e sem precedentes para tarefas complexas e de sequências longas. Segundo dados do Google, o Gemini 2.5 Pro apresenta desempenho particularmente bom em tarefas complexas. Este modelo suporta um comprimento máximo de contexto de 1,048,576 tokens.
G

Gemini 2.5 Flash

Contexto:1M
Entrada:$0.24/M
Saída:$2.00/M
Gemini 2.5 Flash é um modelo de IA desenvolvido pelo Google, projetado para oferecer soluções rápidas e com bom custo-benefício para desenvolvedores, especialmente para aplicações que exigem capacidades de inferência aprimoradas. De acordo com o anúncio da prévia do Gemini 2.5 Flash, o modelo foi lançado em prévia em 17 de abril de 2025, suporta entrada multimodal e possui uma janela de contexto de 1 milhão de tokens. Este modelo suporta um comprimento máximo de contexto de 65,536 tokens.
G

Nano Banana

Por Solicitação:$0.03
Gemini 2.5 Flash Image (também conhecido como nano-banana), o modelo de geração e edição de imagens mais avançado do Google. Esta atualização permite que você mescle várias imagens em uma única, mantenha a consistência dos personagens para contar histórias ricas, realize transformações específicas usando linguagem natural e aproveite o conhecimento de mundo do Gemini para gerar e editar imagens.
G

Gemini 2.5 Flash Lite

Contexto:1M
Entrada:$0.08/M
Saída:$0.32/M
Um modelo Gemini 2.5 Flash otimizado para alta relação custo-benefício e alta taxa de processamento. O menor modelo, com o melhor custo-benefício, desenvolvido para uso em larga escala.
G

Gemini 2.5 Pro DeepSearch

Entrada:$8.00/M
Saída:$64.00/M
Modelo de busca profunda, com capacidades aprimoradas de busca profunda e recuperação de informações, uma escolha ideal para a integração e análise de conhecimento complexo.
G

Gemini 2.5 Pro (All)

Entrada:$2.00/M
Saída:$16.00/M
Gemini 2.5 Pro (All) é um modelo multimodal para compreensão de texto e mídia, projetado para assistentes de uso geral e raciocínio fundamentado. Ele lida com seguimento de instruções, redação analítica, compreensão de código e compreensão de imagens/áudio, com chamadas confiáveis a ferramentas/funções e comportamento compatível com RAG. Os usos típicos incluem agentes de chat corporativos, análise de documentos e de interface do usuário, resposta a perguntas visuais e automação de fluxos de trabalho. Os destaques técnicos incluem entradas unificadas de imagem‑texto‑áudio, suporte a contextos longos, saída JSON estruturada, respostas em streaming e controle de instruções do sistema.
G

Gemini 2.5 Flash DeepSearch

Entrada:$4.80/M
Saída:$38.40/M
Modelo de pesquisa profunda, com capacidades aprimoradas de pesquisa profunda e recuperação de informação, uma escolha ideal para integração e análise de conhecimentos complexos.
G

Gemini 2.5 Flash (All)

Entrada:$0.24/M
Saída:$2.00/M
Gemini 2.5 Flash é um modelo de IA desenvolvido pelo Google, projetado para oferecer soluções rápidas e com bom custo-benefício para desenvolvedores, especialmente para aplicações que exigem capacidades de inferência aprimoradas. De acordo com o anúncio da prévia do Gemini 2.5 Flash, o modelo foi lançado em prévia em 17 de abril de 2025, suporta entrada multimodal e possui uma janela de contexto de 1 milhão de tokens. Este modelo suporta um comprimento máximo de contexto de 65,536 tokens.
G

Gemini 2.0 Flash Lite

Entrada:$0.08/M
Saída:$0.32/M
Gemini 2.0 Flash Lite é um modelo multimodal compacto, ajustado com base em instruções, otimizado para inferência de baixa latência e alta vazão. Ele lida com compreensão de texto e imagem, sumarização, classificação e raciocínio leve, com chamadas a ferramentas/funções e controle de saída estruturada. Os usos típicos incluem agentes conversacionais, elaboração rápida de conteúdo, extração de metadados de documentos ou capturas de tela e fluxos de trabalho com recuperação aumentada. Os destaques técnicos incluem entradas de texto e imagem, geração em streaming, chamadas a funções/ferramentas e opções de implantação adequadas a serviços sensíveis à latência.
G

Gemini 2.0 Flash

Entrada:$0.08/M
Saída:$0.32/M
Gemini 2.0 Flash é um modelo de inteligência artificial fornecido pelo Google-Vertex.
G

Nano Banana Pro

Por Solicitação:$0.19
Nano Banana Pro é um modelo de IA para assistência de uso geral em fluxos de trabalho centrados em texto. É adequado para prompts no estilo de instruções para gerar, transformar e analisar conteúdo com estrutura controlável. Os usos típicos incluem assistentes de chat, resumo de documentos, QA de conhecimento e automação de fluxos de trabalho. Os detalhes técnicos públicos são limitados; a integração se alinha a padrões comuns de assistentes de IA, como saídas estruturadas, prompts com recuperação aumentada e chamada de ferramentas ou funções.
G

Gemini 3 Pro Preview

Contexto:200.0k
Entrada:$1.60/M
Saída:$9.60/M
O Gemini 3 Pro Preview é um modelo de uso geral da família Gemini, disponível em prévia para avaliação e prototipagem. Ele oferece suporte ao seguimento de instruções, raciocínio em múltiplas etapas e tarefas com código e dados, com saídas estruturadas e invocação de ferramentas/funções para automação de fluxos de trabalho. Os usos típicos incluem assistentes de chat, resumo e reescrita, perguntas e respostas aprimoradas por recuperação, extração de dados e ajuda leve de programação em aplicativos e serviços. Os destaques técnicos incluem implantação baseada em API, respostas em streaming, controles de segurança e prontidão para integração, com recursos multimodais dependendo da configuração da prévia.
X

Grok Code Fast 1

Contexto:256K
Entrada:$0.16/M
Saída:$1.20/M
Grok Code Fast 1 é um modelo de programação de IA lançado pela xAI, projetado para executar tarefas básicas de programação de forma rápida e eficiente. O modelo pode processar 92 tokens por segundo, possui uma janela de contexto de 256k e é adequado para prototipagem rápida, depuração de código e geração de elementos visuais simples.
X

Grok 4 Fast

Contexto:2M
Entrada:$0.16/M
Saída:$0.40/M
Grok 4 Fast é um novo modelo de inteligência artificial lançado pela xAI, que integra capacidades de inferência e de não inferência em uma única arquitetura. Este modelo possui uma janela de contexto de 2 milhões de tokens e foi projetado para aplicações de alto rendimento, como pesquisa e programação. O modelo oferece duas versões: Grok-4-Fast-Reasoning e Grok-4-Fast-Non-Reasoning, otimizadas para diferentes tarefas.
X

Grok 4.1 Fast

Contexto:2M
Entrada:$0.16/M
Saída:$0.40/M
O Grok 4.1 Fast é o modelo de grande porte da xAI voltado para produção, otimizado para chamadas de ferramentas orientadas a agentes, fluxos de trabalho de longo contexto e inferência de baixa latência. É uma família multimodal, com duas variantes, projetada para executar agentes autônomos que pesquisam, executam código, chamam serviços e raciocinam sobre contextos extremamente grandes (até 2 milhões de tokens).
X

Grok 4

Contexto:256K
Entrada:$2.40/M
Saída:$12.00/M
Grok 4 é um modelo de inteligência artificial fornecido pela XAI. Atualmente oferece suporte à modalidade de texto, com visão, geração de imagens e outros recursos chegando em breve. Possui parâmetros técnicos e capacidades de ecossistema extremamente poderosos: Janela de contexto: suporta processamento de contexto de até 256,000 tokens, à frente dos modelos principais do mercado.
X

Grok 3 Reasoner

Entrada:$2.40/M
Saída:$12.00/M
Modelo de raciocínio Grok-3, com cadeia de raciocínio, o concorrente de Elon Musk para o R1. Este modelo suporta um comprimento máximo de contexto de 100,000 tokens.
X

Grok 3 Mini

Entrada:$0.24/M
Saída:$0.40/M
Um modelo leve que pensa antes de responder. Rápido, inteligente e ideal para tarefas baseadas em lógica que não exigem conhecimento profundo de domínio. Os traços de pensamento brutos são acessíveis. Este modelo suporta um comprimento máximo de contexto de 100,000 tokens.
X

Grok 3 DeepSearch

Entrada:$2.40/M
Saída:$12.00/M
Modelo de busca em rede profunda Grok-3. Este modelo oferece suporte a um tamanho máximo de contexto de 100,000 tokens.
X

Grok 3 DeeperSearch

Entrada:$2.40/M
Saída:$12.00/M
Modelo de pesquisa em rede profunda Grok-3, superior ao grok-3-deepsearch. Este modelo suporta um comprimento máximo de contexto de 100,000 tokens.
X

Grok 3

Entrada:$2.40/M
Saída:$12.00/M
Grok-3 é o mais recente modelo de chatbot de inteligência artificial lançado pela empresa xAI de Elon Musk em 17 de fevereiro de 2025. Seu cluster de treinamento atingiu o nível de 200,000 placas, apresentando desempenho excelente em tarefas como matemática, ciência e programação, sendo apontado por Musk como "a IA mais inteligente da Terra". Este modelo suporta um comprimento máximo de contexto de 100,000 tokens.
X

Grok 2

Entrada:$0.80/M
Saída:$0.80/M
Grok 2 é um modelo de inteligência artificial fornecido pela XAI.
D

DeepSeek-V3.2

Contexto:128K
Entrada:$0.22/M
Saída:$0.35/M
DeepSeek v3.2 é a versão de produção mais recente da família DeepSeek V3: uma família de modelos de linguagem de grande porte, de pesos abertos e com prioridade ao raciocínio, projetada para compreensão de contextos longos, uso robusto de agentes e ferramentas, raciocínio avançado, programação e matemática.
D

DeepSeek-V3

Entrada:$0.22/M
Saída:$0.88/M
O modelo DeepSeek-V3 mais popular e com melhor custo-benefício. Versão completa de 671B. Este modelo suporta um comprimento máximo de contexto de 64,000 tokens.
D

DeepSeek-V3.1

Entrada:$0.44/M
Saída:$1.32/M
DeepSeek V3.1 é a atualização na V-series da DeepSeek: um modelo de linguagem de grande porte híbrido “com raciocínio / sem raciocínio”, voltado à inteligência geral de alto rendimento e baixo custo e ao uso agentivo de ferramentas. Mantém compatibilidade com API no estilo OpenAI, adiciona chamadas de ferramentas mais inteligentes e—segundo a empresa—traz geração mais rápida e maior confiabilidade dos agentes.
D

DeepSeek-R1T2-Chimera

Entrada:$0.24/M
Saída:$0.24/M
Um modelo de geração de texto Mixture of Experts com 671B parâmetros, fundido a partir de R1-0528, R1 e V3-0324 da DeepSeek-AI, com suporte a até 60k tokens de contexto.
D

DeepSeek-Reasoner

Entrada:$0.44/M
Saída:$1.75/M
DeepSeek-Reasoner é a família da DeepSeek de LLMs e endpoints de API focada prioritariamente em raciocínio, projetada para (1) expor aos chamadores a cadeia de raciocínio (CoT) interna e (2) operar em “pensamento” modos ajustados para planejamento em múltiplas etapas, matemática, programação e uso de agentes/ferramentas.
D

DeepSeek-OCR

Por Solicitação:$0.04
DeepSeek-OCR é um modelo de reconhecimento óptico de caracteres para extrair texto de imagens e documentos. Ele processa páginas digitalizadas, fotos e capturas de tela de interface do usuário (UI) para produzir transcrições com indicações de layout, como quebras de linha. Os usos comuns incluem digitalização de documentos, ingestão de faturas e recibos, indexação para pesquisa e habilitação de pipelines de RPA. Os destaques técnicos incluem processamento de imagem para texto, suporte a conteúdo digitalizado e fotografado e saída de texto estruturado para parsing downstream.
D

DeepSeek-Chat

Contexto:64K
Entrada:$0.22/M
Saída:$0.88/M
O modelo DeepSeek-V3 mais popular e com melhor custo-benefício. Versão completa de 671B. Este modelo suporta um comprimento máximo de contexto de 64,000 tokens.
Q

Qwen Image

Por Solicitação:$0.03
Qwen-Image is a revolutionary image generation foundational model released by Alibaba's Tongyi Qianwen team in 2025. With a parameter scale of 20 billion, it is based on the MMDiT (Multimodal Diffusion Transformer) architecture. The model has achieved significant breakthroughs in complex text rendering and precise image editing, demonstrating exceptional performance particularly in Chinese text rendering. Translated with DeepL.com (free version)
M

Kimi-K2

Entrada:$0.45/M
Saída:$1.79/M
- **kimi-k2-250905**: Versão 0905 da série Kimi K2 da Moonshot AI, com suporte a contexto ultralongo (até 256k tokens, frontend e chamadas de Tool). - 🧠 Tool Calling aprimorado: precisão de 100%, integração perfeita, adequado para tarefas complexas e otimização de integrações. - ⚡️ Desempenho mais eficiente: TPS de até 60-100 (API padrão), até 600-100 no modo Turbo, oferecendo resposta mais rápida e capacidades de inferência aprimoradas, limite de conhecimento até meados de 2025.
Q

qwen3-max-preview

Entrada:$0.24/M
Saída:$2.42/M
- **qwen3-max-preview**: Alibaba Tongyi Qianwen team's latest Qwen3-Max-Preview model, positioned as the series' performance peak. - 🧠 Powerful Multimodal and Inference: Supports ultra-long context (up to 128k tokens) and Multimodal input, excels at complex Inference, code generation, translation, and creative content. - ⚡️ Breakthrough Improvement: Significantly optimized across multiple technical indicators, faster response speed, knowledge cutoff up to 2025, suitable for enterprise-level high-precision AI applications.
Q

qwen3-coder-plus-2025-07-22

Entrada:$0.24/M
Saída:$0.97/M
Qwen3 Coder Plus stable version, released on July 22, 2025, provides higher stability, suitable for production deployment.
Q

qwen3-coder-plus

Entrada:$0.24/M
Saída:$0.97/M
Q

qwen3-coder-480b-a35b-instruct

Entrada:$0.24/M
Saída:$0.97/M
Q

qwen3-coder

Entrada:$0.24/M
Saída:$0.97/M
Q

qwen3-8b

Entrada:$0.04/M
Saída:$0.16/M
Q

qwen3-32b

Entrada:$1.60/M
Saída:$6.40/M
Q

qwen3-30b-a3b

Entrada:$0.12/M
Saída:$0.48/M
Has 3 billion parameters, balancing performance and resource requirements, suitable for enterprise-level applications. - This model may employ MoE or other optimized architectures, suitable for scenarios requiring efficient processing of complex tasks, such as intelligent customer service and content generation.
Q

qwen3-235b-a22b

Entrada:$0.22/M
Saída:$2.22/M
Qwen3-235B-A22B is the flagship model of the Qwen3 series, with 23.5 billion parameters, using a Mixture of Experts (MoE) architecture. - Particularly suitable for complex tasks requiring high-performance Inference, such as coding, mathematics, and Multimodal applications.
Q

qwen3-14b

Entrada:$0.80/M
Saída:$3.20/M
Q

qwen2.5-vl-72b-instruct

Entrada:$2.40/M
Saída:$7.20/M
Q

qwen2.5-vl-72b

Entrada:$2.40/M
Saída:$7.20/M
Q

qwen2.5-vl-32b-instruct

Entrada:$2.40/M
Saída:$7.20/M
Q

qwen2.5-omni-7b

Entrada:$60.00/M
Saída:$60.00/M
Q

qwen2.5-math-72b-instruct

Entrada:$3.20/M
Saída:$3.20/M
Q

qwen2.5-coder-7b-instruct

Entrada:$0.80/M
Saída:$0.80/M
Q

qwen2.5-coder-32b-instruct

Entrada:$0.80/M
Saída:$0.80/M
Q

qwen2.5-7b-instruct

Entrada:$0.80/M
Saída:$0.80/M
Q

qwen2.5-72b-instruct

Entrada:$3.20/M
Saída:$3.20/M
Q

qwen2.5-32b-instruct

Entrada:$0.96/M
Saída:$0.96/M
Q

qwen2.5-14b-instruct

Entrada:$3.20/M
Saída:$3.20/M
Q

qwen2-vl-7b-instruct

Entrada:$1.60/M
Saída:$1.60/M
Q

qwen2-vl-72b-instruct

Entrada:$1.60/M
Saída:$1.60/M
Q

qwen2-7b-instruct

Entrada:$0.16/M
Saída:$0.16/M
Q

qwen2-72b-instruct

Entrada:$8.00/M
Saída:$8.00/M
Q

qwen2-57b-a14b-instruct

Entrada:$3.20/M
Saída:$3.20/M
Q

qwen2-1.5b-instruct

Entrada:$0.16/M
Saída:$0.16/M
Q

qwen1.5-7b-chat

Entrada:$0.16/M
Saída:$0.16/M
Q

Qwen2.5-72B-Instruct-128K

Entrada:$3.20/M
Saída:$3.20/M
M

mj_turbo_zoom

Por Solicitação:$0.17
M

mj_turbo_variation

Por Solicitação:$0.17
M

mj_turbo_upscale_subtle

Por Solicitação:$0.17
M

mj_turbo_upscale_creative

Por Solicitação:$0.17
M

mj_turbo_upscale

Por Solicitação:$0.02
M

mj_turbo_upload

Por Solicitação:$0.01
M

mj_turbo_shorten

Por Solicitação:$0.17
M

mj_turbo_reroll

Por Solicitação:$0.17
M

mj_turbo_prompt_analyzer_extended

Por Solicitação:$0.00
M

mj_turbo_prompt_analyzer

Por Solicitação:$0.00
M

mj_turbo_pic_reader

Por Solicitação:$0.00
M

mj_turbo_pan

Por Solicitação:$0.17
M

mj_turbo_modal

Por Solicitação:$0.17
Submit the content in the modal popup, used for partial redrawing and Zoom functionality.
M

mj_turbo_low_variation

Por Solicitação:$0.17
M

mj_turbo_inpaint

Por Solicitação:$0.08
M

mj_turbo_imagine

Por Solicitação:$0.17
M

mj_turbo_high_variation

Por Solicitação:$0.17
M

mj_turbo_describe

Por Solicitação:$0.00
M

mj_turbo_custom_zoom

Por Solicitação:$0.00
M

mj_turbo_blend

Por Solicitação:$0.17
M

mj_fast_zoom

Por Solicitação:$0.06
M

mj_fast_video

Por Solicitação:$0.60
Midjourney video generation
M

mj_fast_variation

Por Solicitação:$0.06
M

mj_fast_upscale_subtle

Por Solicitação:$0.06
M

mj_fast_upscale_creative

Por Solicitação:$0.06
M

mj_fast_upscale

Por Solicitação:$0.01
M

mj_fast_upload

Por Solicitação:$0.01
M

mj_fast_shorten

Por Solicitação:$0.06
M

mj_fast_reroll

Por Solicitação:$0.06
M

mj_fast_prompt_analyzer_extended

Por Solicitação:$0.00
M

mj_fast_prompt_analyzer

Por Solicitação:$0.00
M

mj_fast_pic_reader

Por Solicitação:$0.00
M

mj_fast_pan

Por Solicitação:$0.06
M

mj_fast_modal

Por Solicitação:$0.06
M

mj_fast_low_variation

Por Solicitação:$0.06
M

mj_fast_inpaint

Por Solicitação:$0.06
M

mj_fast_imagine

Por Solicitação:$0.06
Midjourney drawing
M

mj_fast_high_variation

Por Solicitação:$0.06
M

mj_fast_edits

Por Solicitação:$0.06
M

mj_fast_describe

Por Solicitação:$0.00
M

mj_fast_custom_zoom

Por Solicitação:$0.00
M

mj_fast_blend

Por Solicitação:$0.06
S

suno_uploads

Por Solicitação:$0.02
Fazer upload de música
S

suno_persona_create

Por Solicitação:$0.01
Create a personal style
S

suno_music

Por Solicitação:$0.14
Gerar música
S

suno_lyrics

Por Solicitação:$0.02
Generate lyrics
S

suno_concat

Por Solicitação:$0.04
Song splicing
S

suno_act_wav

Por Solicitação:$0.01
Get WAV format files
S

suno_act_timing

Por Solicitação:$0.01
Timing: Lyrics, Audio timeline
S

suno_act_stems

Por Solicitação:$0.01
S

suno_act_mp4

Por Solicitação:$0.01
Generate MP4 MV
K

kling_virtual_try_on

Por Solicitação:$0.20
K

kling_video

Por Solicitação:$0.40
K

kling_tts

Por Solicitação:$0.02
[Síntese de fala] Recém-lançado: texto para áudio com qualidade de transmissão online, com função de pré-visualização ● Pode gerar simultaneamente audio_id, utilizável com qualquer Keling API.
K

kling_multi_image2image

Por Solicitação:$0.32
K

kling_multi_elements_submit

Por Solicitação:$0.40
K

kling_multi_elements_preview

Por Solicitação:$0.00
K

kling_multi_elements_init

Por Solicitação:$0.00
K

kling_multi_elements_delete

Por Solicitação:$0.00
K

kling_multi_elements_clear

Por Solicitação:$0.00
K

kling_multi_elements_add

Por Solicitação:$0.00
K

kling_lip_sync

Por Solicitação:$0.20
K

kling_image_recognize

Por Solicitação:$0.04
API de reconhecimento de elementos de imagem Keling, utilizável para geração de vídeo por referência de múltiplas imagens, recursos de edição de vídeo multimodal ● Pode reconhecer sujeitos, rostos, roupas etc., e pode obter 4 conjuntos de resultados (se disponíveis) por requisição.
K

kling_image_expand

Por Solicitação:$0.16
K

kling_image

Por Solicitação:$0.02
K

kling_identify_face

Por Solicitação:$0.02
K

kling_extend

Por Solicitação:$0.40
K

kling_effects

Por Solicitação:$0.40
K

kling_avatar_image2video

Por Solicitação:$0.16
K

kling_audio_video_to_audio

Por Solicitação:$0.20
K

kling_audio_text_to_audio

Por Solicitação:$0.20
K

kling_advanced_lip_syn

Por Solicitação:$0.20
D

Doubao Seedream 4-5

Por Solicitação:$0.04
Seedream 4.5 é o modelo de imagem multimodal da ByteDance/Seed (texto→imagem + edição de imagem) que se concentra em fidelidade de imagem em nível de produção, maior aderência ao prompt e consistência de edição muito aprimorada (preservação do sujeito, renderização de texto/tipografia e realismo facial).
D

doubao-seedream-4-0-250828

Por Solicitação:$0.02
D

doubao-seedream-3-0-t2i-250415

Por Solicitação:$0.02
D

doubao-seededit-3-0-i2i-250628

Por Solicitação:$0.02
D

doubao-seed-1-6-thinking-250715

Entrada:$0.04/M
Saída:$1.07/M
D

doubao-seed-1-6-flash-250615

Entrada:$0.04/M
Saída:$1.07/M
D

doubao-seed-1-6-250615

Entrada:$0.04/M
Saída:$1.07/M
D

doubao-1.5-vision-pro-250328

Entrada:$0.33/M
Saída:$1.00/M
D

doubao-1.5-vision-lite-250315

Entrada:$0.17/M
Saída:$0.50/M
D

doubao-1.5-pro-32k-250115

Entrada:$0.18/M
Saída:$0.44/M
D

doubao-1.5-pro-256k

Entrada:$1.10/M
Saída:$1.99/M
D

doubao-1-5-vision-pro-32k

Entrada:$0.33/M
Saída:$1.00/M
D

doubao-1-5-thinking-vision-pro-250428

Entrada:$0.33/M
Saída:$1.00/M
D

doubao-1-5-thinking-pro-250415

Entrada:$0.45/M
Saída:$1.79/M
D

doubao-1-5-pro-32k-250115

Entrada:$0.18/M
Saída:$0.44/M
D

doubao-1-5-pro-32k

Entrada:$0.18/M
Saída:$0.44/M
D

doubao-1-5-pro-256k-250115

Entrada:$0.56/M
Saída:$1.00/M
D

doubao-1-5-pro-256k

Entrada:$1.10/M
Saída:$1.99/M
D

doubao-1-5-lite-32k-250115

Entrada:$0.03/M
Saída:$0.07/M
D

Doubao-Seed-1.6-thinking

Entrada:$0.04/M
Saída:$1.07/M
D

Doubao-Seed-1.6-flash

Entrada:$0.04/M
Saída:$1.07/M
D

Doubao-Seed-1.6

Entrada:$0.04/M
Saída:$1.07/M
D

Doubao-1.5-vision-pro-32k

Entrada:$0.33/M
Saída:$1.00/M
D

Doubao-1.5-vision-pro

Entrada:$0.33/M
Saída:$1.00/M
D

Doubao-1.5-vision-lite

Entrada:$0.17/M
Saída:$0.50/M
D

Doubao-1.5-thinking-vision-pro

Entrada:$0.33/M
Saída:$1.00/M
D

Doubao-1.5-thinking-pro

Entrada:$0.45/M
Saída:$1.79/M
D

Doubao-1.5-pro-32k

Entrada:$0.18/M
Saída:$0.44/M
D

Doubao-1.5-lite-32k

Entrada:$0.07/M
Saída:$0.13/M
R

runwayml_video_to_video

Por Solicitação:$0.96
R

runwayml_upscale_video

Por Solicitação:$0.16
R

runwayml_text_to_image

Por Solicitação:$0.32
R

runwayml_image_to_video

Por Solicitação:$0.32
R

runwayml_character_performance

Por Solicitação:$0.40
R

runway_video2video

Por Solicitação:$0.20
R

runway_video

Por Solicitação:$0.20
R

runway_act_one

Por Solicitação:$0.40
R

Black Forest Labs/FLUX 2 PRO

Por Solicitação:$0.06
FLUX 2 PRO é o modelo comercial principal da série FLUX 2, oferecendo geração de imagens de última geração, com qualidade e nível de detalhe sem precedentes. Projetado para aplicações profissionais e empresariais, oferece fidelidade superior aos prompts, resultados fotorrealistas e capacidades artísticas excepcionais. Este modelo representa a vanguarda da tecnologia de síntese de imagens por IA.
R

Black Forest Labs/FLUX 2 FLEX

Por Solicitação:$0.19
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
R

Black Forest Labs/FLUX 2 DEV

Por Solicitação:$0.06
FLUX 2 DEV is the development-friendly version optimized for research, experimentation, and non-commercial applications. It provides developers with powerful image generation capabilities while maintaining a balance between quality and computational efficiency. Perfect for prototyping, academic research, and personal creative projects.
R

stability-ai/stable-diffusion-3.5-medium

Por Solicitação:$0.11
R

stability-ai/stable-diffusion-3.5-large-turbo

Por Solicitação:$0.13
R

stability-ai/stable-diffusion-3.5-large

Por Solicitação:$0.21
R

stability-ai/stable-diffusion-3

Por Solicitação:$0.11
R

stability-ai/stable-diffusion

Por Solicitação:$0.02
R

stability-ai/sdxl

Por Solicitação:$0.03
R

recraft-ai/recraft-v3-svg

Por Solicitação:$0.26
R

recraft-ai/recraft-v3

Por Solicitação:$0.13
R

ideogram-ai/ideogram-v2-turbo

Por Solicitação:$0.06
R

ideogram-ai/ideogram-v2

Por Solicitação:$0.10
R

bria/remove-background

Entrada:$60.00/M
Saída:$60.00/M
R

bria/increase-resolution

Entrada:$60.00/M
Saída:$60.00/M
R

bria/image-3.2

Entrada:$60.00/M
Saída:$60.00/M
R

bria/genfill

Entrada:$60.00/M
Saída:$60.00/M
R

bria/generate-background

Entrada:$60.00/M
Saída:$60.00/M
R

bria/expand-image

Entrada:$60.00/M
Saída:$60.00/M
R

bria/eraser

Entrada:$60.00/M
Saída:$60.00/M
R

black-forest-labs/flux-schnell

Por Solicitação:$0.01
black-forest-labs/flux-schnell é um modelo generativo de texto para imagem da Black Forest Labs, projetado para amostragem rápida e exploração iterativa de prompts. Ele sintetiza estilos e composições variados a partir de prompts curtos, suporta prompting negativo e controle de semente, e pode produzir saídas em alta resolução adequadas para mockups de produto, concept art e visuais de marketing. Os usos típicos incluem ideação interativa, geração de miniaturas e banners, e variantes criativas automatizadas em pipelines de conteúdo. Os destaques técnicos incluem compatibilidade com a biblioteca Diffusers da Hugging Face, controle flexível de resolução e um amostrador eficiente ajustado para velocidade em GPUs comuns.
R

black-forest-labs/flux-pro

Por Solicitação:$0.18
black-forest-labs/flux-pro é um modelo generativo de texto para imagem da Black Forest Labs para síntese de imagens de alta fidelidade em diversos estilos e temas. Ele transforma prompts detalhados em composições coerentes, com atributos controláveis como proporção de aspecto e estilo, por meio de parâmetros padrão de geração. Usos típicos incluem arte conceitual, visualização de produtos, criativos de marketing e cenas fotorrealistas em fluxos de trabalho de design. Os destaques técnicos incluem a modalidade texto para imagem, o seguimento de prompts em estilo instrucional e a integração a pipelines comuns de geração de imagens.
R

black-forest-labs/flux-kontext-pro

Por Solicitação:$0.05
black-forest-labs/flux-kontext-pro é um modelo de difusão multimodal para geração de imagens sensível ao contexto. Ele sintetiza imagens a partir de prompts de texto e de imagens de referência opcionais, preservando elementos de composição e estilo para resultados alinhados ao contexto. Os usos típicos incluem a criação de materiais de marca, visuais de produto e ideação visual com mood boards ou fotos de exemplo. Os destaques técnicos incluem entradas de texto e imagem, amostragem condicionada por referência e resultados reproduzíveis por meio de controle de semente.
R

black-forest-labs/flux-kontext-max

Por Solicitação:$0.10
black-forest-labs/flux-kontext-max é um modelo de geração de imagens condicionado ao contexto, da linha FLUX, desenvolvido para gerar imagens a partir de texto com entradas de referência opcionais. Ele permite síntese ancorada, preservação de estilo ou de assunto e variações controladas guiadas pelo contexto visual fornecido. As aplicações típicas incluem criações alinhadas à marca, mockups de produtos, continuidade de personagens e ideação orientada por moodboard. Os destaques técnicos incluem geração baseada em difusão e condicionamento multimodal com texto e entradas de referência, adequados a fluxos de trabalho guiados por referência.
R

black-forest-labs/flux-dev

Por Solicitação:$0.08
black-forest-labs/flux-dev é um modelo texto-para-imagem de pesos abertos da Black Forest Labs para gerar imagens a partir de prompts em linguagem natural. Ele produz resultados fotorrealistas e estilizados a partir de prompts detalhados e funciona com opções de controle comuns em pipelines de difusão. Casos de uso típicos incluem arte conceitual, visualização de produtos, imagens de marketing e exploração criativa rápida em fluxos de trabalho de design. Destaques técnicos incluem um design de fluxo retificado baseado em Transformer, integração com a biblioteca Hugging Face Diffusers e implantação por meio de pilhas padrão de inferência em GPU.
R

black-forest-labs/flux-1.1-pro-ultra

Por Solicitação:$0.19
black-forest-labs/flux-1.1-pro-ultra é um Transformer de difusão texto-para-imagem projetado para síntese de imagens em produção a partir de prompts em linguagem natural. Ele gera resultados detalhados a partir de instruções complexas, com controles de estilo, composição, proporção de aspecto, prompts negativos e reprodutibilidade por semente. Os usos típicos incluem criativos de marketing, visualização de produtos, arte conceitual e ideação de conteúdo. Os destaques técnicos incluem difusão baseada em Transformer, orientação pelo codificador de texto e implantação por meio de APIs de inferência comuns, com parâmetros de agendamento e de orientação.
R

black-forest-labs/flux-1.1-pro

Por Solicitação:$0.13
black-forest-labs/flux-1.1-pro é um modelo de geração de imagens a partir de texto da Black Forest Labs para visuais controláveis e de alta fidelidade. Ele interpreta prompts detalhados para produzir composições em diversos estilos e temas, com suporte a refinamento iterativo e variações de imagem em fluxos de difusão comuns. Os usos típicos incluem arte conceitual, mockups de produto, imagens de marketing e exploração de cenas. Os destaques técnicos incluem síntese de imagens condicionada por texto e integração com cadeias de ferramentas de inferência padrão usadas para modelos de difusão.
F

FLUX 2 PRO

Por Solicitação:$0.08
FLUX 2 PRO is the flagship commercial model in the FLUX 2 series, delivering state-of-the-art image generation with unprecedented quality and detail. Built for professional and enterprise applications, it offers superior prompt adherence, photorealistic outputs, and exceptional artistic capabilities. This model represents the cutting edge of AI image synthesis technology.
F

FLUX 2 FLEX

Por Solicitação:$0.01
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
L

Llama-4-Scout

Entrada:$0.22/M
Saída:$1.15/M
Llama-4-Scout é um modelo de linguagem de propósito geral para interação no estilo assistente e automação. Ele é capaz de seguir instruções, realizar raciocínio, sumarização e tarefas de transformação, além de oferecer suporte leve a atividades relacionadas a código. Usos típicos incluem orquestração de conversas, perguntas e respostas com conhecimento aumentado e geração de conteúdo estruturado. Entre os destaques técnicos estão a compatibilidade com padrões de chamada de ferramentas/funções, prompting com recuperação aumentada e saídas restritas por esquema para integração em fluxos de trabalho de produto.
L

Llama-4-Maverick

Entrada:$0.48/M
Saída:$1.44/M
Llama-4-Maverick é um modelo de linguagem de uso geral para compreensão e geração de texto. Ele suporta perguntas e respostas conversacionais, sumarização, redação estruturada e assistência básica à programação, com opções para saídas estruturadas. As aplicações comuns incluem assistentes de produto, front-ends de recuperação de conhecimento e automação de fluxos de trabalho que exigem formatação consistente. Os detalhes técnicos, como número de parâmetros, janela de contexto, modalidade e chamadas de ferramentas ou funções, variam conforme a distribuição; integre de acordo com as capacidades documentadas da implantação.
M

minimax_video-01

Por Solicitação:$1.44
M

minimax_minimax-hailuo-02

Por Solicitação:$2.88
M

minimax_files_retrieve

Por Solicitação:$0.00
M

minimax-m2

Entrada:$0.24/M
Saída:$0.96/M
minimax-m2 é um modelo de linguagem de grande porte compacto e eficiente, otimizado para programação de ponta a ponta e fluxos de trabalho de agentes, com 10 bilhões de parâmetros ativos (230 bilhões de parâmetros totais), apresentando desempenho próximo ao estado da arte em inferência geral, uso de ferramentas e execução de tarefas em múltiplas etapas, ao mesmo tempo mantendo baixa latência e alta eficiência de implantação. O modelo se destaca em geração de código, edição de múltiplos arquivos, ciclos de compilar-executar-corrigir e correção de defeitos na verificação de testes, obtendo excelentes resultados em benchmarks como SWE-Bench Verified, Multi-SWE-Bench e Terminal-Bench, e demonstrando competitividade em planejamento de tarefas de longo ciclo, recuperação de informações e recuperação de erros de execução em avaliações de agentes como BrowseComp e GAIA. Avaliado pela Artificial Analysis, o MiniMax-M2 está no nível superior dos modelos de código aberto em áreas de inteligência abrangente, como matemática, inferência científica e seguimento de instruções. Seu pequeno número de parâmetros ativos possibilita inferência rápida, alta concorrência e melhor economia unitária, tornando-o ideal para implantação de agentes em larga escala, ferramentas auxiliares para desenvolvedores e aplicações orientadas por inferência que exigem velocidade de resposta e eficiência de custos.
F

flux-pro-finetuned

Por Solicitação:$0.07
F

flux-pro-1.1-ultra-finetuned

Por Solicitação:$0.10
F

flux-pro-1.1-ultra

Por Solicitação:$0.07
F

flux-pro-1.1

Por Solicitação:$0.05
F

flux-pro-1.0-fill-finetuned

Por Solicitação:$0.10
F

flux-pro-1.0-fill

Por Solicitação:$0.06
F

flux-pro-1.0-depth-finetuned

Por Solicitação:$0.10
F

flux-pro-1.0-depth

Por Solicitação:$0.06
F

flux-pro-1.0-canny-finetuned

Por Solicitação:$0.10
F

flux-pro-1.0-canny

Por Solicitação:$0.06
F

flux-pro

Por Solicitação:$0.05
F

flux-kontext-pro

Por Solicitação:$0.05
F

flux-kontext-max

Por Solicitação:$0.10
F

flux-finetune

Por Solicitação:$0.05
F

flux-dev

Por Solicitação:$0.03
H

hunyuan-vision

Entrada:$2.01/M
Saída:$2.01/M
H

hunyuan-turbos-vision-20250619

Entrada:$0.33/M
Saída:$1.00/M
H

hunyuan-turbos-vision

Entrada:$0.33/M
Saída:$1.00/M
H

hunyuan-turbos-longtext-128k-20250325

Entrada:$0.17/M
Saída:$0.67/M
H

hunyuan-turbos-latest

Entrada:$0.09/M
Saída:$0.22/M
H

hunyuan-turbos-20250604

Entrada:$0.09/M
Saída:$0.22/M
H

hunyuan-turbos-20250515

Entrada:$0.09/M
Saída:$0.22/M
H

hunyuan-turbos-20250416

Entrada:$0.09/M
Saída:$0.22/M
H

hunyuan-turbos-20250313

Entrada:$0.09/M
Saída:$0.22/M
H

hunyuan-t1-vision-20250619

Entrada:$0.11/M
Saída:$0.45/M
H

hunyuan-t1-vision

Entrada:$0.11/M
Saída:$0.45/M
H

hunyuan-t1-latest

Entrada:$0.11/M
Saída:$0.45/M
H

hunyuan-t1-20250711

Entrada:$0.11/M
Saída:$0.45/M
H

hunyuan-t1-20250529

Entrada:$0.11/M
Saída:$0.45/M
H

hunyuan-t1-20250521

Entrada:$0.11/M
Saída:$0.45/M
H

hunyuan-t1-20250403

Entrada:$0.11/M
Saída:$0.45/M
H

hunyuan-t1-20250321

Entrada:$0.11/M
Saída:$0.45/M
H

hunyuan-standard-256K

Entrada:$0.06/M
Saída:$0.22/M
H

hunyuan-standard

Entrada:$0.09/M
Saída:$0.22/M
H

hunyuan-role

Entrada:$0.45/M
Saída:$0.89/M
H

hunyuan-pro

Entrada:$1.60/M
Saída:$1.60/M
H

hunyuan-lite

Entrada:$1.60/M
Saída:$1.60/M
H

hunyuan-large-vision

Entrada:$0.45/M
Saída:$1.34/M
H

hunyuan-large

Entrada:$0.45/M
Saída:$1.34/M
H

hunyuan-functioncall

Entrada:$0.45/M
Saída:$0.89/M
H

hunyuan-embedding

Entrada:$0.08/M
Saída:$0.08/M
H

hunyuan-code

Entrada:$0.39/M
Saída:$0.78/M
H

hunyuan-all

Entrada:$0.11/M
Saída:$0.22/M
H

hunyuan-a13b

Entrada:$0.06/M
Saída:$0.22/M
H

hunyuan

Entrada:$0.11/M
Saída:$0.11/M
Z

glm-zero-preview

Entrada:$60.00/M
Saída:$60.00/M
Z

glm-4v-plus

Entrada:$4.80/M
Saída:$4.80/M
Z

glm-4v

Entrada:$24.00/M
Saída:$24.00/M
Z

GLM 4.6

Contexto:200
Entrada:$0.64/M
Saída:$2.56/M
Lançado o mais recente modelo carro-chefe da Zhipu, GLM-4.6: parâmetros totais 355B, parâmetros ativos 32B. As capacidades centrais gerais superam as do GLM-4.5. Programação: equipara-se ao Claude Sonnet 4, o melhor da China. Contexto: ampliado para 200K (originalmente 128K). Inferência: aprimorada, com suporte a chamadas de ferramentas. Pesquisa: framework de ferramentas e agentes otimizado. Escrita: mais alinhada às preferências humanas, ao estilo de escrita e à interpretação de papéis. Multilíngue: capacidade de tradução aprimorada.
Z

glm-4.5-x

Entrada:$3.20/M
Saída:$12.80/M
High-performance, strong Inference, extremely fast response model, optimized for scenarios requiring ultra-fast Inference speed and powerful logical capabilities, providing millisecond-level response experience.
Z

glm-4.5-flash

Entrada:$0.16/M
Saída:$0.64/M
GLM-4.5-Flash is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5-airx

Entrada:$1.60/M
Saída:$6.40/M
Lightweight, high-performance, ultra-fast response model, perfectly combining the cost advantages of Air and the speed advantages of X, an ideal choice for balancing performance and efficiency.
Z

glm-4.5-air

Entrada:$0.16/M
Saída:$1.07/M
GLM-4.5-Air is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5

Entrada:$0.48/M
Saída:$1.92/M
GLM-4.5 is an artificial intelligence model provided by ZhipuAI.
Z

glm-4-plus

Entrada:$24.00/M
Saída:$24.00/M
Z

glm-4-long

Entrada:$0.48/M
Saída:$0.48/M
Z

glm-4-flash

Entrada:$0.05/M
Saída:$0.05/M
Z

glm-4-airx

Entrada:$4.80/M
Saída:$4.80/M
Z

glm-4-air

Entrada:$0.48/M
Saída:$0.48/M
Z

glm-4-0520

Entrada:$24.00/M
Saída:$24.00/M
Z

glm-4

Entrada:$24.00/M
Saída:$24.00/M
Z

glm-3-turbo

Entrada:$1.60/M
Saída:$1.60/M