OpenAI wprowadziło znaczącą aktualizację swojego API Responses, wprowadzając zestaw potężnych narzędzi i funkcji klasy korporacyjnej, które zmieniają sposób, w jaki programiści tworzą aplikacje agentowe. Ta wersja, ogłoszona 21 maja 2025 r., opiera się na początkowym API Responses uruchomionym w marcu 2025 r., które zastąpiło API Assistants i przetworzyło już biliony tokenów w modelach takich jak GPT-4o i silniki wnioskowania serii o.
Czym różni się od tradycyjnego API ChatGPT (ukończenia czatu)
- Uzupełnienia prymitywne z agentem na pierwszym miejscu kontra uzupełnienia wyłącznie tekstowe: W przeciwieństwie do interfejsu API Chat Completions, który zwraca zwykły tekst na podstawie monitów, interfejs API Responses został zaprojektowany jako podstawowy element do tworzenia „agentów” — umożliwiając modelom planowanie i wykonywanie zadań składających się z wielu etapów poprzez wywoływanie narzędzi zewnętrznych bezpośrednio w ramach ich łańcucha myślowego.
- Wbudowana orkiestracja narzędzi: Podczas gdy Chat Completions oferuje możliwość wywoływania funkcji, Responses ujednolica wywoływanie narzędzi — takie jak generowanie obrazu lub wykonywanie kodu — w jedno usprawnione wywołanie API, redukując liczbę szablonów i zwiększając produktywność programistów.
- Zachowany stan rozumowania: Modele takie jak o3 i o4-mini utrzymują tokeny wnioskowania podczas wywołań i wywoływania narzędzi, zapewniając bogatsze zrozumienie kontekstowe i mniejsze opóźnienia w porównaniu z uzupełnianiem bezstanowym.
- Niezawodność klasy korporacyjnej: Funkcje takie jak tryb tła dla zadań asynchronicznych, podsumowania rozumowań dla możliwości audytu oraz zaszyfrowane elementy rozumowania dla klientów korzystających z opcji Zero Data Retention zapewniają silniejsze umowy SLA i lepszą kontrolę prywatności niż standardowy punkt końcowy Chat Completions.
Nowe możliwości
- Zdalne wsparcie serwera MCP: Połącz dowolny serwer protokołu Model Context Protocol — Shopify, Stripe, Twilio i inne — aby rozszerzyć kontekst modelu o źródła danych innych firm za pomocą zaledwie kilku wierszy kodu.
- Generowanie obrazu natywnego: Uzyskaj dostęp do
gpt-image-1model jako narzędzie w ramach Responses, umożliwiające strumieniowe podglądy i edycje wieloetapowe bez konieczności oddzielnych wywołań API. - Zintegrowany interpretator kodu: Wykonuj analizę danych, złożone obliczenia i manipulacje obrazami bezpośrednio w przepływie agentów, zwiększając wydajność w testach porównawczych w branży.
- Ulepszone wyszukiwanie plików: Wykonuj zapytania w wielu bazach wektorów z filtrami atrybutów, aby wyodrębnić odpowiednie fragmenty dokumentów i umieścić je w kontekście, upraszczając integrację baz wiedzy.
- Funkcje korporacyjne: Tryb tła umożliwiający zarządzanie długotrwałymi zadaniami rozumowania, automatyczne podsumowania rozumowania na potrzeby debugowania oraz zaszyfrowane elementy rozumowania na potrzeby zgodnych wdrożeń.
Ceny i dostępność
Wszystkie nowe narzędzia i funkcje są dostępne natychmiast w Responses API dla GPT-4o, GPT-4.1 i modeli serii o (o1, o3, o3-mini, o4-mini); generowanie obrazu jest obsługiwane tylko w o3. Ceny pozostają zgodne z obecnymi stawkami narzędzi:
- Generowanie obrazu: 5.00 USD za 1 mln tokenów wprowadzania tekstu, 10.00 USD za 1 mln tokenów wprowadzania obrazu, 40.00 USD za 1 mln tokenów wyjścia obrazu (75% zniżki na buforowane dane wejściowe)
- Interpretator kodu: 0.03 USD za wykonanie kontenera
- Wyszukiwanie plików: 0.10 USD za GB pamięci wektorowej dziennie (pierwszy GB bezpłatnie); 2.50 USD za 1 tys. wywołań narzędzi
- Zdalne serwery MCP: Brak dodatkowych opłat — obowiązuje standardowa metoda rozliczeń za pomocą tokenów wyjściowych.
Brak oddzielnej opłaty za interfejs API odpowiedzi — tokeny są rozliczane według stawek wejścia/wyjścia wybranego modelu (np. GPT-4.1 według opublikowanych stawek za token).
Programiści i przedsiębiorstwa mogą już dziś rozpocząć integrację tych możliwości za pośrednictwem client.responses.create punkt końcowy. Dzięki tym udoskonaleniom OpenAI ma na celu umożliwienie bardziej inteligentnych, niezawodnych i bezpiecznych aplikacji opartych na sztucznej inteligencji w różnych branżach. API Responses jest dostępne dla wszystkich programistów już dziś, a starsze API Assistants zostanie całkowicie wycofane do połowy 2026 r. Istniejące integracje Assistants można migrować przy minimalnych zmianach kodu, dzięki zgodnym schematom żądań i odpowiedzi.
Jak zacząć
CometAPI zapewnia ujednolicony interfejs REST, który agreguje setki modeli AI — w tym rodzinę ChatGPT — w ramach spójnego punktu końcowego, z wbudowanym zarządzaniem kluczami API, limitami wykorzystania i panelami rozliczeniowymi. Zamiast żonglować wieloma adresami URL dostawców i poświadczeniami.
Programiści mogą uzyskać dostęp do najnowszego API chatgpt API GPT-4.1 przez Interfejs API CometNa początek zapoznaj się z możliwościami modelu w Playground i skonsultuj się z Przewodnik po API aby uzyskać szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API.
