ModelosSuporteEmpresarialBlog
500+ APIs de Modelos de IA, Tudo em Uma API. Apenas na CometAPI
API de Modelos
Desenvolvedor
Início RápidoDocumentaçãoPainel de API
Recursos
Modelos de IABlogEmpresarialRegistro de AlteraçõesSobre
2025 CometAPI. Todos os direitos reservados.Política de PrivacidadeTermos de Serviço
Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

Entrada:$0.2/M
Saída:$1.6/M
Contexto:400K
Saída Máxima:128K
GPT-5 mini é o membro otimizado para custo e latência da família GPT-5 da OpenAI, destinado a oferecer grande parte das capacidades multimodais e de seguimento de instruções do GPT-5 a um custo substancialmente menor para uso em produção em larga escala. É voltado para ambientes em que a taxa de processamento, a precificação por token previsível e as respostas rápidas são as principais restrições, sem deixar de oferecer fortes capacidades de uso geral.
Novo
Uso comercial
Playground
Visão Geral
Recursos
Preços
API

Informações básicas e principais recursos

GPT-5 mini é o membro da família GPT-5 da OpenAI otimizado para custo e latência, projetado para oferecer grande parte dos pontos fortes multimodais e de seguimento de instruções do GPT-5 a um custo substancialmente menor para uso em produção em larga escala. Ele é voltado para ambientes em que taxa de transferência, preço previsível por token e respostas rápidas são as principais restrições, ao mesmo tempo em que ainda fornece fortes capacidades de uso geral.

  • Nome do modelo: gpt-5-mini
  • Janela de contexto: 400 000 tokens
  • Máximo de tokens de saída: 128 000
  • Principais recursos: velocidade, taxa de transferência, eficiência de custo, saídas determinísticas para prompts concisos

Como o gpt-5-mini funciona?

Caminho de inferência e implantação otimizados. Os ganhos práticos de velocidade vêm de fusão de kernels, paralelismo de tensores ajustado para um grafo menor e um tempo de execução de inferência que prefere loops internos de “raciocínio” mais curtos, a menos que o desenvolvedor solicite um raciocínio mais profundo. É por isso que o mini alcança um custo computacional visivelmente menor por chamada e latência previsível para tráfego de alto volume. Esse trade-off é deliberado: menor computação por passagem direta → menor custo e menor latência média.

Controles do desenvolvedor. O GPT-5 mini expõe parâmetros como verbosity (controla o nível de detalhe/comprimento) e reasoning_effort (equilibra velocidade vs. profundidade), além de um suporte robusto a chamadas de ferramentas (chamadas de função, cadeias paralelas de ferramentas e tratamento estruturado de erros), o que permite aos sistemas de produção ajustar com precisão a relação entre acurácia e custo.

Desempenho em benchmarks — números principais e interpretação

O GPT-5 mini normalmente fica dentro de ~85–95% do GPT-5 high em benchmarks gerais, ao mesmo tempo em que melhora substancialmente a latência/preço. Os materiais de lançamento da plataforma indicam pontuações absolutas muito altas para o GPT-5 high (AIME ≈ 94.6% relatado para a variante principal), com o mini um pouco abaixo, mas ainda líder do setor para sua faixa de preço.

Em uma variedade de benchmarks padronizados e internos, o GPT-5 mini alcança:

  • Inteligência (AIME ’25): 91.1% (vs. 94.6% para GPT-5 high)
  • Multimodal (MMMU): 81.6% (vs. 84.2% para GPT-5 high)
  • Programação (SWE-bench Verified): 71.0% (vs. 74.9% para GPT-5 high)
  • Seguimento de instruções (Scale MultiChallenge): 62.3% (vs. 69.6%)
  • Chamada de função (τ²-bench telecom): 74.1% (vs. 96.7%)
  • Taxas de alucinação (LongFact-Concepts): 0.7% (quanto menor, melhor)([OpenAI][4])

Esses resultados demonstram os trade-offs robustos do GPT-5 mini entre desempenho, custo e velocidade.

Limitações

Limitações conhecidas: GPT-5 mini capacidade reduzida de raciocínio profundo em comparação com o GPT-5 completo, maior sensibilidade a prompts ambíguos e riscos remanescentes de alucinação.

  • Raciocínio profundo reduzido: Para tarefas de raciocínio de múltiplas etapas e de longo horizonte, o modelo completo de raciocínio ou variantes de “thinking” superam o mini.
  • Alucinações e excesso de confiança: O mini reduz a alucinação em relação a modelos muito pequenos, mas não a elimina; as saídas devem ser validadas em fluxos de alto risco (jurídico, clínico, conformidade).
  • Sensibilidade ao contexto: Cadeias de contexto muito longas e altamente interdependentes são mais bem atendidas pelas variantes completas do GPT-5 com janelas de contexto maiores ou pelo modelo “thinking”.
  • Limites de segurança e política: As mesmas proteções de segurança e limites de taxa/uso aplicáveis a outros modelos GPT-5 também se aplicam ao mini; tarefas sensíveis exigem supervisão humana.

O que o gpt-5-mini faz?

  • Agentes conversacionais de alto volume: baixa latência, custo previsível.
  • Resumo de documentos e multimodal: resumo de contexto longo, relatórios de imagem + texto.
  • Ferramentas para desenvolvedores em escala: verificações de código em CI, revisão automática, geração leve de código.
  • Orquestração de agentes: chamada de ferramentas com cadeias paralelas quando não é necessário raciocínio profundo.

Como começo a usar a API gpt-5-mini?

Etapas obrigatórias

  • Faça login em cometapi.com. Se você ainda não for nosso usuário, registre-se primeiro
  • Obtenha a credencial de acesso, a chave de API da interface. Clique em “Add Token” na seção de token de API no centro pessoal, obtenha a chave do token: sk-xxxxx e envie.
  • Obtenha a URL deste site: https://api.cometapi.com/

Método de uso

  1. Selecione o endpoint “gpt-5-mini“ / "gpt-5-mini-2025-08-07" para enviar a solicitação da API e defina o corpo da solicitação. O método de solicitação e o corpo da solicitação podem ser obtidos na documentação da API em nosso site. Nosso site também fornece teste no Apifox para sua conveniência.
  2. Substitua <YOUR_API_KEY> pela sua chave real da CometAPI da sua conta.
  3. Insira sua pergunta ou solicitação no campo content — é a isso que o modelo responderá.
  4. . Processe a resposta da API para obter a resposta gerada.

A CometAPI fornece uma API REST totalmente compatível — para migração sem interrupções. Detalhes principais na  documentação da API:

  • Parâmetros principais: prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endpoint: https://api.cometapi.com/v1/chat/completions
  • Parâmetro do modelo: “gpt-5-mini“ / "gpt-5-mini-2025-08-07"
  • Autenticação:  Bearer YOUR_CometAPI_API_KEY 
  • Content-Type: application/json .

Instruções de chamada da API: gpt-5-chat-latest deve ser chamado usando o formato padrão /v1/chat/completions. Para outros modelos (gpt-5, gpt-5-mini, gpt-5-nano e suas versões datadas), recomenda-se usar o formato /v1/responses is recommended. Atualmente, dois modos estão disponíveis.

Recursos para GPT-5 mini

Explore os principais recursos do GPT-5 mini, projetado para aprimorar o desempenho e a usabilidade. Descubra como essas capacidades podem beneficiar seus projetos e melhorar a experiência do usuário.

Preços para GPT-5 mini

Explore preços competitivos para GPT-5 mini, projetado para atender diversos orçamentos e necessidades de uso. Nossos planos flexíveis garantem que você pague apenas pelo que usar, facilitando o dimensionamento conforme suas necessidades crescem. Descubra como GPT-5 mini pode aprimorar seus projetos mantendo os custos gerenciáveis.
Preço do Comet (USD / M Tokens)Preço Oficial (USD / M Tokens)Desconto
Entrada:$0.2/M
Saída:$1.6/M
Entrada:$0.25/M
Saída:$2/M
-20%

Código de exemplo e API para GPT-5 mini

O GPT-5 mini é uma variante leve e otimizada em termos de custo do principal modelo GPT-5 da OpenAI, projetada para oferecer raciocínio de alta qualidade e capacidades multimodais com menor latência e custo.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-mini",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-mini",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Mais modelos

A

Claude Opus 4.6

Entrada:$4/M
Saída:$20/M
Claude Opus 4.6 é o modelo de linguagem de grande porte da classe “Opus” da Anthropic, lançado em fevereiro de 2026. É posicionado como um cavalo de batalha para o trabalho do conhecimento e fluxos de trabalho de pesquisa — aprimorando o raciocínio em contextos longos, o planejamento em múltiplas etapas, o uso de ferramentas (incluindo fluxos de trabalho de software agente) e tarefas de uso do computador, como a geração automatizada de slides e planilhas.
A

Claude Sonnet 4.6

Entrada:$2.4/M
Saída:$12/M
Claude Sonnet 4.6 é o nosso modelo Sonnet mais capaz até agora. É uma atualização completa das capacidades do modelo em programação, uso do computador, raciocínio de longo contexto, planejamento de agentes, trabalho de conhecimento e design. Sonnet 4.6 também apresenta uma janela de contexto de 1M tokens em beta.
O

GPT-5.4 nano

Entrada:$0.16/M
Saída:$1/M
O GPT-5.4 nano foi projetado para tarefas em que a velocidade e o custo são os que mais importam, como classificação, extração de dados, ranqueamento e subagentes.
O

GPT-5.4 mini

Entrada:$0.6/M
Saída:$3.6/M
GPT-5.4 mini traz os pontos fortes do GPT-5.4 para um modelo mais rápido e mais eficiente, projetado para cargas de trabalho de alto volume.
A

Claude Mythos Preview

A

Claude Mythos Preview

Em breve
Entrada:$60/M
Saída:$240/M
Claude Mythos Preview é nosso modelo de fronteira mais capaz até o momento e apresenta um salto impressionante nos resultados em muitos benchmarks de avaliação em comparação com nosso modelo de fronteira anterior, Claude Opus 4.6.
X

mimo-v2-pro

Entrada:$0.8/M
Saída:$2.4/M
MiMo-V2-Pro é o modelo fundacional carro-chefe da Xiaomi, com mais de 1T de parâmetros no total e um comprimento de contexto de 1M, profundamente otimizado para cenários agentivos. Ele é altamente adaptável a frameworks de agentes gerais como o OpenClaw. Ele figura entre a elite global nos benchmarks padrão PinchBench e ClawBench, com desempenho percebido que se aproxima ao de Opus 4.6. MiMo-V2-Pro foi projetado para servir como o cérebro de sistemas de agentes, orquestrando fluxos de trabalho complexos, impulsionando tarefas de engenharia em produção e entregando resultados de forma confiável.