A API o3-Pro é um ponto de extremidade RESTful ChatCompletion que permite aos desenvolvedores invocar o raciocínio avançado de cadeia de pensamento, a execução de código e os recursos de análise de dados do OpenAI por meio de parâmetros configuráveis (modelo = "o3-pro", mensagens, temperatura, max_tokens, streaming, etc.) para integração perfeita em fluxos de trabalho complexos.
O OpenAI o3‑pro é uma variante “pro” do modelo de raciocínio o3, projetado para pensar por mais tempo e fornecer as respostas mais confiáveis, empregando aprendizado de reforço de cadeia de pensamento privada e definindo novos benchmarks de última geração em domínios como ciência, programação e negócios, ao mesmo tempo em que integra de forma autônoma ferramentas como pesquisa na web, análise de arquivos, execução de Python e raciocínio visual dentro da API.

Informações básicas e Recursos
- Classe de modelo: o3-Pro faz parte dos “modelos de raciocínio” da OpenAI, projetados para pense passo a passo em vez de gerar respostas imediatas.
- Disponibilidade: Acessível por meio das interfaces ChatGPT Pro/Team e da API de desenvolvedor OpenAI a partir de 10 de junho de 2025.
- Níveis de acesso: Substitui a edição anterior o1-Pro; Usuários Enterprise e Edu a bordo na semana seguinte ao lançamento.
Detalhes Técnicos
- Plataforma:Baseia-se na estrutura do o3 com um aprimoramento cadeia privada de pensamento, permitindo o raciocínio em várias etapas na inferência.
- tokenization: Suporta o mesmo esquema de tokens que seus predecessores: 1 milhão de tokens de entrada ≈ 750,000 palavras.
- Capacidades Estendidas: Inclui pesquisa na web, execução de código Python, análise de arquivos e raciocínio visual; a geração de imagens continua sem suporte nesta versão.
Evolução da Série O
- o1 → o3: O salto inicial de o1 para o3 em abril de 2025 introduziu capacidades de raciocínio.
- Estratégia de preços:Juntamente com a estreia do o3-Pro, a OpenAI reduziu o preço do o3 em 80%—de US
2 a US0.40 por milhão de tokens de entrada—para acelerar a adoção. - Lançamento do o3-Pro: A computação premium e os caminhos de raciocínio ajustados oferecem a mais alta confiabilidade em um camada premium.
Desempenho de referência
- Matemática e Ciências: Superou o Google Gemini 2.5 Pro no concurso AIME 2024, demonstrando excelente capacidade de resolução de problemas em matemática avançada.
- Ciências de nível de doutorado:Superou o Claude 4 Opus da Anthropic no benchmark GPQA Diamond, indicando sólida expertise em domínios científicos.
- Uso Empresarial: Testes internos relatam vitórias consistentes sobre modelos anteriores em tarefas de codificação, STEM e raciocínio empresarial.
Indicadores técnicos
- Latência: Os tempos de resposta são maiores que os do o1-Pro — refletindo as cadeias de raciocínio mais profundas — com média 1.5 × a latência anterior.
- Produtividade: Taxa de transferência de geração de tokens sustentada de até 10 fichas/seg no modo burst.
Com suas cadeias de raciocínio aprimoradas, conjunto de recursos expandido e desempenho de referência líder, o3-Pro representa um avanço significativo em IA confiável e de alta precisão.
Como chamar a API o3-Pro da CometAPI
o3-Pro Preços da API no CometAPI, 20% de desconto sobre o preço oficial:
- Tokens de entrada: $16/ M tokens
- Tokens de saída: US$ 64/M tokens
Etapas Necessárias
- Faça o login no cometapi.com. Se você ainda não é nosso usuário, registre-se primeiro
- Obtenha a chave de API da credencial de acesso da interface. Clique em "Adicionar Token" no token da API no centro pessoal, obtenha a chave de token: sk-xxxxx e envie.
- Obtenha a URL deste site: https://api.cometapi.com/
Métodos de uso
- Selecione a opção "
o3-Pro"ou"o3-pro-2025-06-10” endpoint para enviar a solicitação e definir o corpo da solicitação. O método e o corpo da solicitação são obtidos da documentação da API do nosso site. Nosso site também oferece o teste Apifox para sua conveniência. - Substituir com sua chave CometAPI real da sua conta.
- Insira sua pergunta ou solicitação no campo de conteúdo — é a isso que o modelo responderá.
- . Processe a resposta da API para obter a resposta gerada.
Para obter informações sobre acesso ao modelo na API Comet, consulte Doc API.
Este modelo segue o formato de chamada padrão OpenAI v1/responses. Para referência específica:
curl --location
--request POST 'https://api.cometapi.com/v1/responses' \
--header 'Authorization: Bearer sk-xxxxxx' \
--header 'User-Agent: Apifox/1.0.0 (https://apifox.com)' \
--header 'Content-Type: application/json' \
--header 'Accept: */*' \
--header 'Host: api.cometapi.com' \
--header 'Connection: keep-alive' \
--data-raw '{ "model": "o3-pro", "input": }'
Se você tiver alguma dúvida sobre a chamada ou tiver alguma sugestão para nós, entre em contato conosco pelas redes sociais e pelo endereço de e-mail support@cometapi.com.
Veja também :



