API odpowiedzi OpenAI otrzymuje znaczącą aktualizację zamiast API asystentów

CometAPI
AnnaMay 27, 2025
API odpowiedzi OpenAI otrzymuje znaczącą aktualizację zamiast API asystentów

OpenAI wprowadziło znaczącą aktualizację swojego API Responses, wprowadzając zestaw potężnych narzędzi i funkcji klasy korporacyjnej, które zmieniają sposób, w jaki programiści tworzą aplikacje agentowe. Ta wersja, ogłoszona 21 maja 2025 r., opiera się na początkowym API Responses uruchomionym w marcu 2025 r., które zastąpiło API Assistants i przetworzyło już biliony tokenów w modelach takich jak GPT-4o i silniki wnioskowania serii o.

Czym różni się od tradycyjnego API ChatGPT (ukończenia czatu)

  • Uzupełnienia prymitywne z agentem na pierwszym miejscu kontra uzupełnienia wyłącznie tekstowe: W przeciwieństwie do interfejsu API Chat Completions, który zwraca zwykły tekst na podstawie monitów, interfejs API Responses został zaprojektowany jako podstawowy element do tworzenia „agentów” — umożliwiając modelom planowanie i wykonywanie zadań składających się z wielu etapów poprzez wywoływanie narzędzi zewnętrznych bezpośrednio w ramach ich łańcucha myślowego.
  • Wbudowana orkiestracja narzędzi: Podczas gdy Chat Completions oferuje możliwość wywoływania funkcji, Responses ujednolica wywoływanie narzędzi — takie jak generowanie obrazu lub wykonywanie kodu — w jedno usprawnione wywołanie API, redukując liczbę szablonów i zwiększając produktywność programistów.
  • Zachowany stan rozumowania: Modele takie jak o3 i o4-mini utrzymują tokeny wnioskowania podczas wywołań i wywoływania narzędzi, zapewniając bogatsze zrozumienie kontekstowe i mniejsze opóźnienia w porównaniu z uzupełnianiem bezstanowym.
  • Niezawodność klasy korporacyjnej: Funkcje takie jak tryb tła dla zadań asynchronicznych, podsumowania rozumowań dla możliwości audytu oraz zaszyfrowane elementy rozumowania dla klientów korzystających z opcji Zero Data Retention zapewniają silniejsze umowy SLA i lepszą kontrolę prywatności niż standardowy punkt końcowy Chat Completions.

Nowe możliwości

  1. Zdalne wsparcie serwera MCP: Połącz dowolny serwer protokołu Model Context Protocol — Shopify, Stripe, Twilio i inne — aby rozszerzyć kontekst modelu o źródła danych innych firm za pomocą zaledwie kilku wierszy kodu.
  2. Generowanie obrazu natywnego: Uzyskaj dostęp do gpt-image-1 model jako narzędzie w ramach Responses, umożliwiające strumieniowe podglądy i edycje wieloetapowe bez konieczności oddzielnych wywołań API.
  3. Zintegrowany interpretator kodu: Wykonuj analizę danych, złożone obliczenia i manipulacje obrazami bezpośrednio w przepływie agentów, zwiększając wydajność w testach porównawczych w branży.
  4. Ulepszone wyszukiwanie plików: Wykonuj zapytania w wielu bazach wektorów z filtrami atrybutów, aby wyodrębnić odpowiednie fragmenty dokumentów i umieścić je w kontekście, upraszczając integrację baz wiedzy.
  5. Funkcje korporacyjne: Tryb tła umożliwiający zarządzanie długotrwałymi zadaniami rozumowania, automatyczne podsumowania rozumowania na potrzeby debugowania oraz zaszyfrowane elementy rozumowania na potrzeby zgodnych wdrożeń.

Ceny i dostępność

Wszystkie nowe narzędzia i funkcje są dostępne natychmiast w Responses API dla GPT-4o, GPT-4.1 i modeli serii o (o1, o3, o3-mini, o4-mini); generowanie obrazu jest obsługiwane tylko w o3. Ceny pozostają zgodne z obecnymi stawkami narzędzi:

  • Generowanie obrazu: 5.00 USD za 1 mln tokenów wprowadzania tekstu, 10.00 USD za 1 mln tokenów wprowadzania obrazu, 40.00 USD za 1 mln tokenów wyjścia obrazu (75% zniżki na buforowane dane wejściowe)
  • Interpretator kodu: 0.03 USD za wykonanie kontenera
  • Wyszukiwanie plików: 0.10 USD za GB pamięci wektorowej dziennie (pierwszy GB bezpłatnie); 2.50 USD za 1 tys. wywołań narzędzi
  • Zdalne serwery MCP: Brak dodatkowych opłat — obowiązuje standardowa metoda rozliczeń za pomocą tokenów wyjściowych.

Brak oddzielnej opłaty za interfejs API odpowiedzi — tokeny są rozliczane według stawek wejścia/wyjścia wybranego modelu (np. GPT-4.1 według opublikowanych stawek za token).

Programiści i przedsiębiorstwa mogą już dziś rozpocząć integrację tych możliwości za pośrednictwem client.responses.create punkt końcowy. Dzięki tym udoskonaleniom OpenAI ma na celu umożliwienie bardziej inteligentnych, niezawodnych i bezpiecznych aplikacji opartych na sztucznej inteligencji w różnych branżach. API Responses jest dostępne dla wszystkich programistów już dziś, a starsze API Assistants zostanie całkowicie wycofane do połowy 2026 r. Istniejące integracje Assistants można migrować przy minimalnych zmianach kodu, dzięki zgodnym schematom żądań i odpowiedzi.

Jak zacząć

CometAPI zapewnia ujednolicony interfejs REST, który agreguje setki modeli AI — w tym rodzinę ChatGPT — w ramach spójnego punktu końcowego, z wbudowanym zarządzaniem kluczami API, limitami wykorzystania i panelami rozliczeniowymi. Zamiast żonglować wieloma adresami URL dostawców i poświadczeniami.

Programiści mogą uzyskać dostęp do najnowszego API chatgpt API GPT-4.1 przez Interfejs API CometNa początek zapoznaj się z możliwościami modelu w Playground i skonsultuj się z Przewodnik po API aby uzyskać szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API.

Czytaj więcej

500+ modeli w jednym API

Do 20% zniżki