OpenAI führt mehrere neue Angebote ein: die Responses API, integrierte Tools für die Web- und Dateisuche, ein Tool zur Computernutzung und das Open-Source-Agents-SDK. Während Entwickler mit der Responses API Agenten auf Basis ihrer Technologie erstellen können, können sie mit dem Agents-SDK Agenten mit anderen Webtools und -prozessen verknüpfen und so „Workflows“ ausführen, die autonom die Wünsche des Benutzers oder Unternehmens erfüllen.
2025 wird oft als das „Jahr der Agenten“ gefeiert, und der Schritt von OpenAI gilt als wichtiger Schritt für die Branche. Das Agents SDK ermöglicht es Entwicklern, die neuesten Fortschritte von OpenAI (wie verbessertes logisches Denken, multimodale Interaktionen und neue Sicherheitstechniken) in realen, mehrstufigen Szenarien einfach zu nutzen. Für LLM-Entwickler und KI-Agenten-Entwickler bietet das Agents SDK eine Reihe von „Bausteinen“ zur Erstellung und Verwaltung eigener autonomer KI-Systeme.
Die Bedeutung des Agents SDK liegt in seiner Fähigkeit, die Herausforderungen der Bereitstellung von KI-Agenten in Produktionsumgebungen zu bewältigen. Traditionell war die Umsetzung leistungsstarker LLM-Funktionen in mehrstufige Workflows arbeitsintensiv und erforderte viel individuelles Regelschreiben, die Entwicklung sequentieller Eingabeaufforderungen und Ausprobieren ohne geeignete Observability-Tools. Mit dem Agents SDK und zugehörigen neuen API-Tools wie der Responses API will OpenAI diesen Prozess deutlich vereinfachen und Entwicklern die Entwicklung komplexerer und zuverlässigerer Agenten mit weniger Aufwand ermöglichen.

Was ist Agents SDK
OpenAI kehrt mit der Veröffentlichung seines Agents SDK in großem Stil in den Open-Source-Bereich zurück. Dabei handelt es sich um ein Toolkit, das Entwicklern dabei helfen soll, Agenten-Workflows zu verwalten, zu koordinieren und zu optimieren. Dabei können sogar Agenten erstellt werden, die auf anderen, nicht auf OpenAI basierenden Modellen basieren, wie etwa denen der Konkurrenten Anthropic und Google oder Open-Source-Modellen von DeepSeek, Qwen, Mistral und der Llama-Familie von Meta.
Warum das Agents SDK verwenden?
Das SDK basiert auf zwei treibenden Designprinzipien:
- Es sind genügend Funktionen vorhanden, um die Verwendung zu lohnen, aber nur wenige Grundelemente, um das Erlernen zu erleichtern.
- Funktioniert sofort einwandfrei, aber Sie können genau anpassen, was passiert.
Hier sind die Hauptfunktionen des SDK:
- Agentenschleife: Integrierte Agentenschleife, die das Aufrufen von Tools, das Senden von Ergebnissen an das LLM und die Schleife übernimmt, bis das LLM fertig ist.
- Python-first: Verwenden Sie integrierte Sprachfunktionen zum Orchestrieren und Verketten von Agenten, anstatt neue Abstraktionen erlernen zu müssen.
- Übergaben: Eine leistungsstarke Funktion zur Koordination und Delegation zwischen mehreren Agenten.
- Leitplanken: Führen Sie Eingabevalidierungen und -prüfungen parallel zu Ihren Agenten aus und brechen Sie den Vorgang vorzeitig ab, wenn die Prüfungen fehlschlagen.
- Funktionstools: Verwandeln Sie jede Python-Funktion in ein Tool mit automatischer Schemagenerierung und Pydantic-gestützter Validierung.
- Ablaufverfolgung: Integrierte Ablaufverfolgung, mit der Sie Ihre Arbeitsabläufe visualisieren, debuggen und überwachen sowie die OpenAI-Suite mit Tools zur Auswertung, Feinabstimmung und Destillation verwenden können.
Wie man den Dienst nutzt Openai Agents SDK
- Einrichten Ihrer Python-Umgebung
python -m venv env
source env/bin/activate
- Installieren Sie das Agents SDK
pip install openai-agents
- Stellen Sie den
OPENAI_API_KEYvariable Umgebung
Frei Stellen Sie den OPENAI_API_KEY API von CometAPI
- Anmelden zu cometapi.comWenn Sie noch nicht unser Benutzer sind, registrieren Sie sich bitte zuerst
- Holen Sie sich den API-Schlüssel für die Zugangsdaten der Schnittstelle. Klicken Sie im persönlichen Center beim API-Token auf „Token hinzufügen“, holen Sie sich den Token-Schlüssel: sk-xxxxx und senden Sie ihn ab.
- Holen Sie sich die URL dieser Site: https://api.cometapi.com/
- Wähle aus
OPENAI_API_KEYEndpunkt zum Senden der API-Anforderung und Festlegen des Anforderungstexts. Die Anforderungsmethode und der Anforderungstext werden abgerufen von unser Website-API-Dokument. Unsere Website bietet zu Ihrer Bequemlichkeit auch einen Apifox-Test.
- Richten Sie Ihren Agenten ein
Definieren Sie, welche Tools Ihre KI nutzen kann. Nehmen wir an, wir möchten Web-Suche kombiniert mit einem nachhaltigen Materialprofil. Dateiabruf:
from agent_sdk import Agent, WebSearchTool, FileRetrievalTool
search_tool = WebSearchTool(api_key="your_api_key")
file_tool = FileRetrievalTool()
agent = Agent(tools=)
Jetzt weiß Ihr Agent, wie er im Internet sucht und Dokumente abruft.
5. laufen
Im Gegensatz zu herkömmlichen Chatbots ist diese KI entscheidet anhand der Benutzereingaben, welches Werkzeug verwendet werden soll:
def agent_task(query):
result = agent.use_tool("web_search", query)
return result
response = agent_task("Latest AI research papers")
print(response)
Kein manueller Eingriff – nur autonome Ausführung.
Die Agentenschleife
Wenn du anrufst Runner.run()führt das SDK eine Schleife aus, bis es eine endgültige Ausgabe erhält:
- Der LLM wird unter Verwendung des Modells und der Einstellungen des Agenten sowie des Nachrichtenverlaufs aufgerufen.
- Das LLM gibt eine Antwort zurück, die Tool-Aufrufe enthalten kann.
- Wenn die Antwort eine endgültige Ausgabe hat, endet die Schleife und gibt diese zurück.
- Wenn die Antwort eine Übergabe beinhaltet, wird der Agent auf den neuen Agenten eingestellt und die Schleife wird ab Schritt 1 fortgesetzt.
- Tool-Aufrufe werden (sofern vorhanden) verarbeitet und Tool-Antwortnachrichten angehängt. Anschließend wird die Schleife ab Schritt 1 fortgesetzt.
Sie können die Verwendung max_turns Parameter, um die Anzahl der Schleifenausführungen zu begrenzen.
Endgültige Ausgabe
Die endgültige Ausgabe ist das Letzte, was der Agent in der Schleife produziert:
- Wenn Sie eine
output_typeAuf dem Agenten erfolgt die endgültige Ausgabe, wenn das LLM mithilfe strukturierter Ausgaben etwas dieser Art zurückgibt. - Wenn es keine gibt
output_type(d. h. Antworten im Klartext), dann wird die erste LLM-Antwort ohne Tool-Aufrufe oder Übergaben als endgültige Ausgabe betrachtet.
Hallo Welt Beispiel
from agents import Agent, Runner
agent = Agent(name="Assistant", instructions="You are a helpful assistant")
result = Runner.run_sync(agent, "Write a haiku about recursion in programming.")
print(result.final_output)
# Code within the code,
# Functions calling themselves,
# Infinite loop's dance.

Technische Struktur
„Das OpenAI Agents SDK soll ein konzeptioneller Rahmen sein, der zeigt, wie verschiedene Agenten, beispielsweise ein ‚Triage-Agent‘ oder ein ‚CRM-Agent‘, zusammenarbeiten können, um Aufgaben über Tool-Interaktionen und Delegationsmechanismen zu erledigen.“
Kernkomponenten und Architektur des Agents SDK
Das OpenAI Agents SDK basiert auf einem prägnanten und dennoch robusten Prinzipiensatz. Im Mittelpunkt steht das Konzept der Makler, stellt eine Instanz eines Sprachmodells dar, das mit spezifischen Anweisungen ausgestattet und für die Nutzung verschiedener Tools ausgestattet ist. Agenten empfangen zunächst Benutzeranfragen – wie Fragen oder Aufgabendefinitionen – und zerlegen diese dann in Unteraufgaben, die die Verwendung vordefinierter Tools beinhalten können, um schließlich eine vollständige Antwort zu liefern. Diese Tools werden funktional als aufrufbare Funktionen beschrieben. Mithilfe des Agents SDK kann jede Python-Funktion nahtlos als Werkzeug dienen, wobei die automatische Schemavalidierung für Ein- und Ausgaben über Pydantic erfolgt. Beispielsweise können Python-Funktionen, die ein Datenbankabfragetool oder ein Websuchtool darstellen, direkt in das Toolkit eines Agenten integriert werden.
Ein weiterer zentraler Bestandteil des Agents SDK ist die Agentenschleife, das den iterativen Prozess der Aufgabenlösung definiert. Ausgehend von einem ersten Versuch, eine Anfrage zu beantworten, prüft ein Agent, ob er über ausreichende Informationen verfügt oder externe Aktionen ausführen muss. Bei Bedarf ruft der Agent ein relevantes Tool auf, verarbeitet die Ausgabe und bewertet die Aufgabe erneut. Dieser Zyklus wiederholt sich, bis der Agent den Abschluss der Aufgabe mit der Antwort „Fertig“ signalisiert. Das Agents SDK verwaltet diesen Prozess autonom und vereinfacht den Entwicklungsprozess durch die Automatisierung wiederkehrender Aufgaben wie Tool-Aufruf, Ergebnisverarbeitung und iterative Wiederholungsversuche. Dadurch können sich Entwickler stärker auf die Definition von Workflows und Agentenfunktionen konzentrieren, ohne sich um die zugrunde liegende Mechanik kümmern zu müssen. OpenAI beschreibt diesen Ansatz als Python-first, wobei der Schwerpunkt auf der Verwendung bekannter Python-Konstrukte – wie Schleifen, Bedingungen und Funktionsaufrufen – gegenüber domänenspezifischen Sprachen (DSLs) liegt. Dank dieser Flexibilität können Entwickler miteinander verbundene Agenten orchestrieren und gleichzeitig die native Python-Syntax nutzen.
Handoff- und Multi-Agent-Architektur
Die Fähigkeiten des SDK gehen über einzelne Agenten hinaus. Durch eine Funktion namens WeiterleitenAufgaben können zwischen mehreren Agenten übertragen werden, was eine nahtlose Zusammenarbeit ermöglicht. Beispielsweise kann ein „Triage-Agent“ die Art einer eingehenden Anfrage ermitteln und sie an einen anderen spezialisierten Agenten delegieren, oder die Ausgabe eines Agenten kann als Eingabe für einen anderen dienen. Dieses System unterstützt Workflows, bei denen spezialisierte Agenten einzelne Teile einer umfassenderen Aufgabe ausführen und so komplexe Multi-Agenten-Architekturen ermöglichen. OpenAI hat das Toolkit für skalierbare Anwendungen entwickelt, wie z. B. die Automatisierung des Kundensupports, Forschungsprozesse, mehrstufige Projekte, die Erstellung von Inhalten, Vertriebsaktivitäten oder sogar Code-Reviews. Darüber hinaus Geländer Verbessern Sie die Zuverlässigkeit durch die Anwendung von Validierungsregeln für Agenten-Ein- und -Ausgaben. Beispielsweise können Leitplanken die Einhaltung des Parameterformats erzwingen oder die Schleife bei erkannten Anomalien vorzeitig beenden. Dadurch werden Risiken wie ineffiziente Ausführung oder unerwünschtes Verhalten im realen Betrieb reduziert.
Orchestrierung und Überwachung
Über die Aufgabenausführung hinaus enthält das Agents SDK robuste Orchesterbearbeitung Funktionen, die die Ausführung von Tools, Datenflüsse und das Loop-Management übernehmen. Trotz des hohen Automatisierungsgrades legt OpenAI Wert auf Transparenz und stattet Entwickler mit Tools aus, um die Agentenaktivität in Echtzeit zu überwachen. Durch die integrierte Tracing Mit der im OpenAI-Dashboard verfügbaren Funktion können Entwickler Workflows Schritt für Schritt visualisieren und beobachten, wann Tools aufgerufen werden, welche Eingaben sie verwenden und welche Ausgaben sie zurückgeben. Die Plattform nutzt die Überwachungsinfrastruktur von OpenAI, um die Ausführung der Agentenlogik in Traces und Spans zu unterteilen und so detaillierte Einblicke in das Agentenverhalten zu erhalten. Dies ermöglicht Entwicklern, Engpässe zu diagnostizieren, Probleme zu beheben, Workflows zu optimieren und die Leistung zu verfolgen. Darüber hinaus unterstützt die Tracing-Architektur anspruchsvolle Auswertungen, die eine Feinabstimmung und Verbesserung der Agentenleistung im Laufe der Zeit ermöglichen.
Vorteile
Das OpenAI Agents SDK ist nicht nur für einzelne Entwickler gedacht, sondern bietet auch Unternehmen, die KI-Agenten-basierte Produkte entwickeln, erhebliche Vorteile. Beginnen wir mit den Vorteilen:
Schnelles Prototyping und Produktion: Das Agents SDK implementiert komplexe Agentenverhalten mit minimalem Code- und Konfigurationsaufwand und verkürzt so den Zyklus von der Idee zum Produkt. Beispielsweise nutzt die etablierte Krypto-Plattform Coinbase das SDK, um schnell Prototypen für Multi-Agenten-Supportsysteme zu entwickeln und bereitzustellen. Ähnlich verhält es sich mit Enterprise-Suchassistenten: Unternehmen können die Web- und Dateisuchtools des SDK integrieren, um schnell Mehrwert zu schaffen. Durch die Auslagerung von Orchestrierungsdetails können sich Entwickler auf produktspezifische Funktionen konzentrieren.
Reduzierte Entwicklungskosten: Der Aufbau eines Agentensystems von Grund auf erfordert erhebliche technische Investitionen. Das Agents SDK reduziert die Kosten, indem es vorgefertigte Lösungen für gängige Anforderungen bietet – Schleifenmanagement, API-Aufrufsynchronisierung, Fehlerbehandlung und formatierte Tool-Ausgabe für LLM. Da es Open Source ist, ermöglicht es zudem die Anpassung an die Bedürfnisse des Unternehmens. Dies ist ein Vorteil für Startups, da sie mit begrenzten Ressourcen leistungsstarke agentenbasierte Produkte entwickeln können.
Rückverfolgbarkeit und Debugging: Das integrierte Tracking-Dashboard des SDK transformiert Geschäftsanwendungen. Branchenbedenken, dass KI eine „Blackbox“ ist, ermöglichen nun die Protokollierung und Überprüfung jedes Agentenschritts. Gibt ein Kundendienstmitarbeiter die falsche Antwort, zeigt die Ablaufverfolgung, welcher Tool-Aufruf oder Schritt fehlgeschlagen ist. Der Log/Trace-Bildschirm der OpenAI-Plattform verbessert die Prüfbarkeit von Agenten – entscheidend in Branchen, die Regulierungen oder internen Audits unterliegen. Dies ermöglicht Unternehmen eine sicherere Integration von KI, da sie die Ergebnisse bei Bedarf erklären können.
Zugriff auf die neuesten Modelle und Tools von OpenAI: Die Nutzung des Agents SDK ermöglicht die Nutzung der Top-Modelle (z. B. GPT-4) und aktuellen Tools (Websuche, Codeausführung) von OpenAI. Dies bietet einen Qualitätsvorteil gegenüber der Entwicklung von Alternativen, die möglicherweise auf schwächeren Modellen basieren. Für Anwendungen, die hohe Genauigkeit oder aktuelle Informationen erfordern (z. B. Forschungsassistenten, Finanzanalyse-Agenten), ist die Leistung der OpenAI-Modelle ein großer Vorteil. Da OpenAI weitere Tools hinzufügt (was auf weitere Integrationen hindeutet), können SDK-Nutzer diese problemlos übernehmen.
CometAPI ist vollständig mit dem OpenAI-Schnittstellenprotokoll kompatibel und gewährleistet so eine nahtlose Integration. Sie vermeiden Modell- und Serviceabhängigkeiten (Lock-in-Risiko), reduzieren Datenschutz- und Sicherheitsbedenken und senken Kosten. Die Nutzung der leistungsstarken Modelle und Tools von OpenAI kann teuer sein und die Leistung beeinträchtigen. CometAPI bietet günstigere Preise.
Verwandte Themen CometAPI: Die ultimative KI-Modellintegrationsplattform
Fazit
OpenAI hat sich der Weiterentwicklung von KI-Funktionen mit innovativen Angeboten wie der Responses API verschrieben. Durch die Einführung dieser Tools erhalten Unternehmen und Entwickler die Möglichkeit, intelligentere, anpassungsfähigere und hochzuverlässigere KI-Lösungen zu entwickeln. Diese Entwicklungen deuten auf eine Zukunft hin, in der künstliche Intelligenz weiterhin bedeutende Veränderungen vorantreibt und branchenübergreifend neue Möglichkeiten eröffnet.



