17. April 2025: OpenAI hat am Mittwoch zwei bahnbrechende KI-Modelle vorgestellt: o3 und o4-mini. Diese Modelle markieren einen bedeutenden Fortschritt im Denkvermögen künstlicher Intelligenz. Sie sollen die Leistung bei komplexen Aufgaben verbessern und visuelles Verständnis sowie fortgeschrittene Problemlösungsfähigkeiten integrieren.

o3: Fortschritte in Richtung menschlicher Denkfähigkeit
Das o3-Modell ist das bislang ausgereifteste Reasoning-System von OpenAI. Es hat in verschiedenen Benchmarks außergewöhnliche Leistungen gezeigt:
- Mathematik: Habe bei der AIME 96.7-Prüfung eine Punktzahl von 2024 % erreicht und nur eine Frage falsch beantwortet.
- Wissenschaftliches Denken: Erreichte 87.7 % im GPQA Diamond-Benchmark bei der Bewältigung naturwissenschaftlicher Probleme auf Hochschulniveau.
- Software Engineering: Bei den SWE-Bench Verified-Codierungstests wurde eine Genauigkeit von 71.7 % erreicht.
- Generelle Intelligenz: Überschritt die menschenähnliche Schwelle im ARC-AGI-Benchmark mit einem Ergebnis von 87.5 % bei hohen Rechenleistungseinstellungen.
Diese Erfolge positionieren o3 als einen bedeutenden Schritt in Richtung künstlicher allgemeiner Intelligenz (AGI) und zeigen seine Fähigkeit, sich über auswendig gelernte Muster hinaus an neue Aufgaben anzupassen.
Siehe auch GPT-4.1: Was ist das und wie können Sie es verwenden?
o4-mini: Effizient und vielseitig
Das Modell o4-mini bietet eine kompaktere und kostengünstigere Alternative ohne Leistungseinbußen. Es eignet sich hervorragend für Aufgaben wie Mathematik, Codierung und visuelle Analyse und ist somit für ein breites Anwendungsspektrum geeignet.
Innovationen im Bereich visuelles Denken und verbesserte Werkzeugautonomie
Sowohl o3 als auch o4-mini ermöglichen die Analyse visueller Eingaben wie Bilder, Skizzen und Whiteboard-Inhalte. Diese Integration ermöglicht es den Modellen, Bilder im Rahmen ihrer Analyseprozesse zu manipulieren – beispielsweise durch Zoomen oder Drehen – und so ihre Problemlösungsfähigkeiten zu verbessern.
OpenAI hat in diesen Modellen ein neuartiges Trainingsparadigma namens „deliberative Alignment“ implementiert. Dieser Ansatz ermöglicht der KI strukturiertes Denken im Einklang mit von Menschen festgelegten Sicherheitsstandards, verbessert die Einhaltung von Sicherheitsstandards und liefert kontextsensitive Antworten.
CEO Sam Altman hat die Komplexität der Modellbenennungskonventionen von OpenAI anerkannt und angedeutet, dass ein intuitiveres Benennungssystem in Kürze verfügbar sein wird.
Siehe auch Kann GPT-4o NSFW-Bilder generieren?
Barrierefreiheit und zukünftige Entwicklungen
Die Modelle o3 und o4-mini sind ab sofort für ChatGPT Plus-, Pro- und Team-Nutzer verfügbar. Die Einführung erfolgt zeitgleich mit der kürzlichen Vorstellung des GPT-4.1-Modells durch OpenAI und spiegelt die rasanten Fortschritte des Unternehmens in der KI-Entwicklung wider.
CEO Sam Altman hat die Komplexität der Modellbenennungskonventionen von OpenAI anerkannt und angedeutet, dass ein intuitiveres Benennungssystem in Kürze verfügbar sein wird.
Diese Fortschritte unterstreichen das Engagement von OpenAI, die Grenzen der KI-Fähigkeiten zu erweitern und gleichzeitig den Schwerpunkt auf Sicherheit und Zugänglichkeit zu legen.
OpenAI hat außerdem Codex CLI eingeführt, einen Open-Source-Code-Agenten, der lokal auf dem Endgerät des Benutzers läuft. Er bietet Nutzern eine einfache und übersichtliche Möglichkeit, KI-Modelle (einschließlich o3 und o4-mini (mit bald verfügbarer Unterstützung für GPT-4.1)) mit Code und Aufgaben auf ihren eigenen Computern zu verbinden. Codex CLI ist Open Source und ab sofort auf GitHub verfügbar.
Weitere Informationen zu den neuesten Modellen von OpenAI und ihren Funktionen finden Sie unter CometAPI o3 API kombiniert mit einem nachhaltigen Materialprofil. O4 Mini API, beschreibt, wie Sie über CometAPI auf die O3-API und die O4-Mini-API zugreifen und diese integrieren.



