A API de respostas do OpenAI recebe uma atualização importante em vez da API de assistentes

CometAPI
AnnaMay 27, 2025
A API de respostas do OpenAI recebe uma atualização importante em vez da API de assistentes

A OpenAI lançou uma atualização significativa para sua API Responses, introduzindo um conjunto de ferramentas poderosas e recursos de nível empresarial que transformam a forma como os desenvolvedores criam aplicativos agênticos. Anunciada em 21 de maio de 2025, esta versão se baseia na API Responses lançada em março de 2025, que substituiu a API Assistants e já processou trilhões de tokens em modelos como GPT-4o e os mecanismos de raciocínio da série O.

Como ele difere da API ChatGPT (Chat Completions) tradicional

  • Primitivo Agente Primeiro vs. Complementações Somente Texto: Diferentemente da API Chat Completions, que retorna texto simples com base em prompts, a API Responses foi projetada como uma primitiva central para a criação de experiências "agentes", permitindo que os modelos planejem e executem tarefas de várias etapas chamando ferramentas externas diretamente em sua cadeia de pensamento.
  • Orquestração de ferramentas integradas: Enquanto o Chat Completions oferece capacidade de chamada de função, o Responses unifica a invocação de ferramentas, como geração de imagem ou execução de código, em uma única chamada de API simplificada, reduzindo repetições repetitivas e melhorando a produtividade do desenvolvedor.
  • Estado de raciocínio preservado: Modelos como o3 e o4-mini mantêm tokens de raciocínio em chamadas e invocações de ferramentas, gerando uma compreensão contextual mais rica e menor latência em comparação com conclusões sem estado.
  • Confiabilidade de nível empresarial: Recursos como modo de segundo plano para tarefas assíncronas, resumos de raciocínio para auditoria e itens de raciocínio criptografados para clientes com Retenção Zero de Dados oferecem SLAs e controles de privacidade mais fortes do que o ponto de extremidade padrão de conclusões de bate-papo.

Novos recursos

  1. Suporte remoto ao servidor MCP: Conecte qualquer servidor do Model Context Protocol (Shopify, Stripe, Twilio e mais) para estender o contexto do modelo com fontes de dados de terceiros por meio de apenas algumas linhas de código.
  2. Geração de imagem nativa: Acessar o gpt-image-1 modelo como uma ferramenta dentro de Respostas, permitindo visualizações transmitidas e edições multi-turn sem chamadas de API separadas.
  3. Interpretador de código integrado: Execute análises de dados, cálculos complexos e manipulações de imagens diretamente no fluxo do agente, aumentando o desempenho em benchmarks do setor.
  4. Pesquisa de arquivos aprimorada: Consulte em vários armazenamentos de vetores com filtros de atributos para extrair trechos de documentos relevantes para o contexto, simplificando as integrações da base de conhecimento.
  5. Recursos da empresa: Modo de segundo plano para gerenciar tarefas de raciocínio de longa duração, resumos de raciocínio automáticos para depuração e itens de raciocínio criptografados para implantações compatíveis.

Preço e Disponibilidade

Todas as novas ferramentas e recursos estão disponíveis imediatamente na API de Respostas para GPT-4o, GPT-4.1 e os modelos da série O (o1, o3, o3-mini, o4-mini); a geração de imagens é suportada apenas no o3. Os preços permanecem os mesmos das ferramentas existentes:

  • Geração de imagem: US$ 5.00 por 1 M de tokens de entrada de texto, US$ 10.00 por 1 M de tokens de entrada de imagem, US$ 40.00 por 1 M de tokens de saída de imagem (75% de desconto em entradas em cache)
  • Interpretador de código: US$ 0.03 por execução de contêiner
  • Pesquisa de arquivos: US$ 0.10 por GB de armazenamento vetorial por dia (primeiro GB gratuito); US$ 2.50 por 1 K chamadas de ferramenta
  • Servidores MCP remotos: Sem taxa extra — aplica-se a cobrança de token de saída padrão.

Nenhuma taxa separada da API de respostas — os tokens são cobrados nas taxas de entrada/saída do modelo selecionado (por exemplo, GPT-4.1 em suas taxas publicadas por token).

Os desenvolvedores e as empresas podem começar a integrar essas capacidades hoje mesmo por meio do client.responses.create ponto final. Com essas melhorias, a OpenAI visa capacitar aplicações baseadas em IA mais inteligentes, confiáveis ​​e seguras em todos os setores. A API Responses está disponível para todos os desenvolvedores hoje, e a API Assistants legada será totalmente descontinuada em meados de 2026. As integrações existentes com Assistants podem ser migradas com alterações mínimas no código, graças a esquemas de solicitação e resposta compatíveis.

Começando a jornada

A CometAPI fornece uma interface REST unificada que agrega centenas de modelos de IA — incluindo a família ChatGPT — em um endpoint consistente, com gerenciamento de chaves de API, cotas de uso e painéis de faturamento integrados. Em vez de lidar com várias URLs e credenciais de fornecedores.

Os desenvolvedores podem acessar a API mais recente do chatgpt API GPT-4.1 através de CometAPI. Para começar, explore as capacidades do modelo no Playground e consulte o Guia de API para obter instruções detalhadas. Antes de acessar, certifique-se de ter feito login no CometAPI e obtido a chave da API.

Leia Mais

500+ Modelos em Uma API

Até 20% de Desconto