ModelosSuporteEmpresarialBlog
500+ APIs de Modelos de IA, Tudo em Uma API. Apenas na CometAPI
API de Modelos
Desenvolvedor
Início RápidoDocumentaçãoPainel de API
Recursos
Modelos de IABlogEmpresarialRegistro de AlteraçõesSobre
2025 CometAPI. Todos os direitos reservados.Política de PrivacidadeTermos de Serviço
Home/Models/OpenAI/O3 Pro
O

O3 Pro

Entrada:$16/M
Saída:$64/M
Contexto:200K
Saída Máxima:100K
OpenAI o3‑pro é uma variante “pro” do modelo de raciocínio o3, projetada para raciocinar por mais tempo e fornecer as respostas mais confiáveis, empregando aprendizado por reforço com cadeia de raciocínio privada e estabelecendo novos benchmarks de ponta em domínios como ciência, programação e negócios — enquanto integra, de forma autônoma, ferramentas como pesquisa na web, análise de arquivos, execução de Python e raciocínio visual na API.
Novo
Uso comercial
Visão Geral
Recursos
Preços
API
Versões

Informações básicas e recursos

  • Classe do modelo: o3-Pro faz parte dos “modelos de raciocínio” da OpenAI, projetados para pensar passo a passo em vez de gerar respostas imediatas.
  • Disponibilidade: Acessível via interfaces ChatGPT Pro/Team e pela API para desenvolvedores da OpenAI desde 10 de junho de 2025.
  • Níveis de acesso: Substitui a edição anterior o1-Pro; usuários Enterprise e Edu são integrados na semana seguinte ao lançamento.

Detalhes técnicos

  • Arquitetura: Baseia-se na espinha dorsal do o3 com uma cadeia de raciocínio privada aprimorada, permitindo raciocínio em várias etapas durante a inferência.
  • Tokenização: Oferece suporte ao mesmo esquema de tokens de seus predecessores — 1 milhão de tokens de entrada ≈ 750.000 palavras.
  • Capacidades estendidas: Inclui pesquisa na web, execução de código Python, análise de arquivos e raciocínio visual; a geração de imagens continua sem suporte nesta versão.

Desempenho em benchmarks

  • Matemática e ciências: Superou o Google Gemini 2.5 Pro no concurso AIME 2024, demonstrando capacidade superior de resolução de problemas em matemática avançada.
  • Ciência em nível de PhD: Superou o Claude 4 Opus da Anthropic no benchmark GPQA Diamond, indicando sólida expertise em domínios científicos.
  • Uso corporativo: Testes internos relatam vitórias consistentes sobre modelos predecessores em tarefas de programação, STEM e raciocínio de negócios.

Indicadores técnicos

  • Latência: Os tempos de resposta são maiores que os do o1-Pro — refletindo cadeias de raciocínio mais profundas — com média de 1,5× da latência anterior.
  • Taxa de transferência: Taxa sustentada de geração de tokens de até 10 tokens/seg no modo de rajada.

Com suas cadeias de raciocínio aprimoradas, conjunto expandido de recursos e desempenho líder em benchmarks, o o3-Pro representa um passo significativo à frente em IA confiável e de alta precisão.

Como acessar a API do o3-pro

Etapa 1: Cadastre-se para obter uma chave de API

Faça login em cometapi.com. Se você ainda não é nosso usuário, registre-se primeiro. Entre no seu console do CometAPI. Obtenha a credencial de acesso, a chave de API da interface. Clique em “Add Token” na seção de token da API no centro pessoal, obtenha a chave do token: sk-xxxxx e envie.

Etapa 2: Envie solicitações para a API do o3-pro

Selecione o endpoint “\**o3-pro\**” para enviar a solicitação da API e defina o corpo da solicitação. O método da solicitação e o corpo da solicitação são obtidos na documentação da API em nosso site. Nosso site também fornece teste no Apifox para sua conveniência. Substitua <YOUR_API_KEY> pela sua chave real do CometAPI da sua conta.

Insira sua pergunta ou solicitação no campo content — é isso ao que o modelo responderá. Processe a resposta da API para obter a resposta gerada.

Etapa 3: Recupere e verifique os resultados

Processe a resposta da API para obter a resposta gerada. Após o processamento, a API responde com o status da tarefa e os dados de saída.

Recursos para O3 Pro

Explore os principais recursos do O3 Pro, projetado para aprimorar o desempenho e a usabilidade. Descubra como essas capacidades podem beneficiar seus projetos e melhorar a experiência do usuário.

Preços para O3 Pro

Explore preços competitivos para O3 Pro, projetado para atender diversos orçamentos e necessidades de uso. Nossos planos flexíveis garantem que você pague apenas pelo que usar, facilitando o dimensionamento conforme suas necessidades crescem. Descubra como O3 Pro pode aprimorar seus projetos mantendo os custos gerenciáveis.
Preço do Comet (USD / M Tokens)Preço Oficial (USD / M Tokens)Desconto
Entrada:$16/M
Saída:$64/M
Entrada:$20/M
Saída:$80/M
-20%

Código de exemplo e API para O3 Pro

A API o3-Pro é um endpoint RESTful de ChatCompletion que permite que desenvolvedores invoquem as capacidades avançadas da OpenAI de raciocínio em cadeia, execução de código e análise de dados por meio de parâmetros configuráveis (model="o3-pro", messages, temperature, max_tokens, streaming, etc.), possibilitando integração transparente a fluxos de trabalho complexos.

Versões do O3 Pro

O motivo pelo qual O3 Pro possui múltiplas versões instantâneas pode incluir fatores como variações na saída após atualizações que exigem versões antigas para consistência, fornecendo aos desenvolvedores um período de transição para adaptação e migração, e diferentes versões correspondentes a endpoints globais ou regionais para otimizar a experiência do usuário. Para diferenças detalhadas entre versões, consulte a documentação oficial.
version
o3-pro
o3-pro-2025-06-10

Mais modelos

O

o4-mini-deep-research

O

o4-mini-deep-research

Entrada:$1.6/M
Saída:$6.4/M
O4-Mini-Deep-Research é o mais recente modelo de raciocínio agêntico da OpenAI, combinando o backbone leve o4-mini com o avançado framework Deep Research. Projetado para oferecer uma síntese profunda de informações rápida e econômica, permite que desenvolvedores e pesquisadores realizem pesquisas automatizadas na web, análise de dados e raciocínio em cadeia em uma única chamada de API.
L

Llama-4-Scout

L

Llama-4-Scout

Entrada:$0.216/M
Saída:$1.152/M
Llama-4-Scout é um modelo de linguagem de propósito geral para interação no estilo assistente e automação. Ele é capaz de seguir instruções, realizar raciocínio, sumarização e tarefas de transformação, além de oferecer suporte leve a atividades relacionadas a código. Usos típicos incluem orquestração de conversas, perguntas e respostas com conhecimento aumentado e geração de conteúdo estruturado. Entre os destaques técnicos estão a compatibilidade com padrões de chamada de ferramentas/funções, prompting com recuperação aumentada e saídas restritas por esquema para integração em fluxos de trabalho de produto.
L

Llama-4-Maverick

L

Llama-4-Maverick

Entrada:$0.48/M
Saída:$1.44/M
Llama-4-Maverick é um modelo de linguagem de uso geral para compreensão e geração de texto. Ele suporta perguntas e respostas conversacionais, sumarização, redação estruturada e assistência básica à programação, com opções para saídas estruturadas. As aplicações comuns incluem assistentes de produto, front-ends de recuperação de conhecimento e automação de fluxos de trabalho que exigem formatação consistente. Os detalhes técnicos, como número de parâmetros, janela de contexto, modalidade e chamadas de ferramentas ou funções, variam conforme a distribuição; integre de acordo com as capacidades documentadas da implantação.
M

Kimi-K2

M

Kimi-K2

Entrada:$0.48/M
Saída:$1.92/M
- **kimi-k2-250905**: Versão 0905 da série Kimi K2 da Moonshot AI, com suporte a contexto ultralongo (até 256k tokens, frontend e chamadas de Tool). - 🧠 Tool Calling aprimorado: precisão de 100%, integração perfeita, adequado para tarefas complexas e otimização de integrações. - ⚡️ Desempenho mais eficiente: TPS de até 60-100 (API padrão), até 600-100 no modo Turbo, oferecendo resposta mais rápida e capacidades de inferência aprimoradas, limite de conhecimento até meados de 2025.
X

Grok 3 Reasoner

X

Grok 3 Reasoner

Entrada:$2.4/M
Saída:$12/M
Modelo de raciocínio Grok-3, com cadeia de raciocínio, o concorrente de Elon Musk para o R1. Este modelo suporta um comprimento máximo de contexto de 100,000 tokens.
X

Grok 3 Mini

X

Grok 3 Mini

Entrada:$0.24/M
Saída:$0.4/M
Um modelo leve que pensa antes de responder. Rápido, inteligente e ideal para tarefas baseadas em lógica que não exigem conhecimento profundo de domínio. Os traços de pensamento brutos são acessíveis. Este modelo suporta um comprimento máximo de contexto de 100,000 tokens.

Blogs relacionados

Novo Veo3.1: mais consistência, resultados mais diversos e mais riqueza
Jan 14, 2026
veo-3-1

Novo Veo3.1: mais consistência, resultados mais diversos e mais riqueza

O Veo 3.1 do Google foi atualizado em janeiro, trazendo melhorias direcionadas que aproximam os fluxos de trabalho de imagem para vídeo da qualidade de produção. A versão enfatiza a fidelidade de imagem para vídeo, a consistência temporal e de personagens aprimorada, a saída vertical nativa para plataformas móveis e saídas em maior definição por meio da melhoria da qualidade em 1080p e de um caminho de upscaling para 4K. Para criadores e desenvolvedores que têm contornado o fluxo de trabalho de “cortar e depois editar” para formatos verticais em redes sociais, a saída nativa em 9:16 do Veo 3.1 e o upscaling aprimorado prometem reduzir o atrito e entregar clipes mais refinados e prontos para a plataforma.