OpenAI Responses API erhält ein großes Upgrade anstelle der Assistants API

CometAPI
AnnaMay 27, 2025
OpenAI Responses API erhält ein großes Upgrade anstelle der Assistants API

OpenAI hat ein bedeutendes Upgrade seiner Responses API eingeführt und bietet eine Reihe leistungsstarker Tools und Funktionen auf Unternehmensebene, die die Entwicklung agentenbasierter Anwendungen für Entwickler grundlegend verändern. Diese am 21. Mai 2025 angekündigte Version baut auf der im März 2025 eingeführten Responses API auf, die die Assistants API ersetzte und bereits Billionen von Token über Modelle wie GPT-4o und die Reasoning Engines der O-Serie verarbeitet hat.

Unterschiede zur herkömmlichen ChatGPT-API (Chat Completions)

  • Agent-First-Primitive vs. Nur-Text-Vervollständigungen: Anders als die Chat Completions API, die auf der Grundlage von Eingabeaufforderungen einfachen Text zurückgibt, ist die Responses API als Kernelement für den Aufbau „agentischer“ Erfahrungen konzipiert. Sie ermöglicht es Modellen, mehrstufige Aufgaben zu planen und auszuführen, indem sie externe Tools direkt innerhalb ihrer Gedankenkette aufrufen.
  • Integrierte Tool-Orchestrierung: Während Chat Completions die Möglichkeit zum Funktionsaufruf bietet, vereinheitlicht Responses den Toolaufruf – etwa die Bildgenerierung oder die Codeausführung – in einem einzigen, optimierten API-Aufruf, wodurch der Boilerplate-Aufruf reduziert und die Produktivität der Entwickler verbessert wird.
  • Beibehaltener Argumentationszustand: Modelle wie o3 und o4-mini behalten Argumentationstoken über Anrufe und Toolaufrufe hinweg bei, was zu einem umfassenderen Kontextverständnis und geringerer Latenz im Vergleich zu zustandslosen Vervollständigungen führt.
  • Zuverlässigkeit auf Unternehmensniveau: Funktionen wie der Hintergrundmodus für asynchrone Aufgaben, Begründungszusammenfassungen zur Überprüfbarkeit und verschlüsselte Begründungselemente für Kunden mit Zero Data Retention bieten stärkere SLAs und Datenschutzkontrollen als der standardmäßige Chat Completions-Endpunkt.

Neue Fähigkeiten

  1. Remote-MCP-Server-Unterstützung: Verbinden Sie jeden beliebigen Model Context Protocol-Server – Shopify, Stripe, Twilio und mehr –, um den Modellkontext mit Datenquellen von Drittanbietern über nur wenige Codezeilen zu erweitern.
  2. Native Bildgenerierung: Besuchen Sie das gpt-image-1 Modell als Tool innerhalb von Responses, das gestreamte Vorschauen und mehrstufige Bearbeitungen ohne separate API-Aufrufe ermöglicht.
  3. Integrierter Code-Interpreter: Führen Sie Datenanalysen, komplexe Berechnungen und Bildbearbeitungen direkt im Agentenfluss durch und steigern Sie so die Leistung bei Branchen-Benchmarks.
  4. Verbesserte Dateisuche: Führen Sie Abfragen über mehrere Vektorspeicher mit Attributfiltern durch, um relevante Dokumentausschnitte in den Kontext zu bringen und so die Integration von Wissensdatenbanken zu vereinfachen.
  5. Unternehmensfunktionen: Hintergrundmodus zum Verwalten lang andauernder Reasoning-Aufgaben, automatischer Reasoning-Zusammenfassungen zum Debuggen und verschlüsselter Reasoning-Elemente für konforme Bereitstellungen.

Preise und Verfügbarkeit

Alle neuen Tools und Funktionen sind ab sofort in der Responses API für GPT-4o, GPT-4.1 und die Modelle der o-Serie (o1, o3, o3-mini, o4-mini) verfügbar. Die Bildgenerierung wird nur auf o3 unterstützt. Die Preise entsprechen den bestehenden Tool-Tarifen:

  • Bilderzeugung: 5.00 $ pro 1 Mio. Text-Eingabetoken, 10.00 $ pro 1 Mio. Bild-Eingabetoken, 40.00 $ pro 1 Mio. Bild-Ausgabetoken (75 % Rabatt auf zwischengespeicherte Eingaben)
  • Code-Interpreter: 0.03 $ pro Containerausführung
  • Dateisuche: 0.10 USD pro GB Vektorspeicher pro Tag (erstes GB kostenlos); 2.50 USD pro 1 Tool-Aufrufe
  • Remote-MCP-Server: Keine zusätzliche Gebühr – es gilt die Standardabrechnung per Ausgabetoken.

Keine separate Gebühr für die Responses-API – Token werden zu den Eingabe-/Ausgaberaten des ausgewählten Modells abgerechnet (z. B. GPT-4.1 zu den veröffentlichten Raten pro Token).

Entwickler und Unternehmen können diese Funktionen bereits heute integrieren über die client.responses.create Endpunkt. Mit diesen Verbesserungen möchte OpenAI intelligentere, zuverlässigere und sicherere KI-basierte Anwendungen branchenübergreifend ermöglichen. Die Responses API ist bereits heute für alle Entwickler verfügbar, die alte Assistants API wird Mitte 2026 vollständig veraltet sein. Bestehende Assistants-Integrationen können dank kompatibler Anfrage- und Antwortschemata mit minimalen Codeänderungen migriert werden.

Erste Schritte

CometAPI bietet eine einheitliche REST-Schnittstelle, die Hunderte von KI-Modellen – einschließlich der ChatGPT-Familie – unter einem konsistenten Endpunkt aggregiert, mit integrierter API-Schlüsselverwaltung, Nutzungskontingenten und Abrechnungs-Dashboards. Anstatt mit mehreren Anbieter-URLs und Anmeldeinformationen zu jonglieren.

Entwickler können auf die neueste Chatgpt-API zugreifen GPT-4.1-API - durch Konsolidierung, CometAPI. Erkunden Sie zunächst die Funktionen des Modells im Playground und konsultieren Sie die API-Leitfaden Für detaillierte Anweisungen. Stellen Sie vor dem Zugriff sicher, dass Sie sich bei CometAPI angemeldet und den API-Schlüssel erhalten haben.

Mehr lesen

500+ Modelle in einer API

Bis zu 20% Rabatt