OpenAI onthult o3 en o4-mini: baanbrekende AI-modellen verbeteren redeneervermogen

CometAPI
AnnaApr 17, 2025
OpenAI onthult o3 en o4-mini: baanbrekende AI-modellen verbeteren redeneervermogen

17 april 2025: OpenAI heeft woensdag twee baanbrekende AI-modellen geïntroduceerd, o3 en o4-mini, die een aanzienlijke vooruitgang betekenen in de redeneermogelijkheden van kunstmatige intelligentie. Deze modellen zijn ontworpen om de prestaties bij complexe taken te verbeteren en combineren visueel inzicht met geavanceerde probleemoplossende vaardigheden.

o3 en o4-mini

o3: Vooruitgang richting menselijk redeneren

Het o3-model is OpenAI's meest geavanceerde redeneersysteem tot nu toe. Het heeft uitzonderlijke prestaties geleverd in verschillende benchmarks:

  • Wiskunde: Een score van 96.7% behaald op het AIME 2024-examen, waarbij ik slechts één vraag miste.
  • Wetenschappelijk redeneren: Scoorde 87.7% op de GPQA Diamond-benchmark, waarbij wetenschappelijke problemen op universitair niveau werden aangepakt.
  • Software Engineering: Een nauwkeurigheid van 71.7% behaald bij de SWE-Bench Verified-coderingstesten.
  • Algemene intelligentie: De menselijke drempel op de ARC-AGI benchmark werd overtroffen met een score van 87.5% bij hoge rekenkrachtinstellingen.

Met deze prestaties zet o3 een belangrijke stap in de richting van Algemene Kunstmatige Intelligentie (AGI), en toont het aan dat het zich kan aanpassen aan nieuwe taken die verder gaan dan opgeslagen patronen.

Zie ook GPT-4.1: wat is het en hoe kun je het gebruiken?

o4-mini: efficiënt en veelzijdig

Het o4-mini-model biedt een compacter en kosteneffectiever alternatief zonder in te leveren op prestaties. Het blinkt uit in taken zoals wiskunde, codering en visuele analyse, waardoor het geschikt is voor een breed scala aan toepassingen.

Innovaties in visueel redeneren en verbeterde gereedschapsautonomie

Zowel o3 als o4-mini introduceren de mogelijkheid om te redeneren met visuele input, waaronder afbeeldingen, schetsen en whiteboardcontent. Deze integratie stelt de modellen in staat om afbeeldingen te manipuleren – zoals zoomen of roteren – als onderdeel van hun analytische processen, wat hun probleemoplossend vermogen verbetert.

OpenAI heeft in deze modellen een nieuw trainingsparadigma geïmplementeerd, genaamd "deliberatieve afstemming". Deze aanpak stelt de AI in staat om gestructureerd te redeneren, afgestemd op door mensen geschreven veiligheidsnormen, waardoor de naleving van veiligheidsnormen wordt verbeterd en contextgevoelige reacties worden geboden.

CEO Sam Altman heeft de complexiteit van de modelnaamgevingsconventies van OpenAI erkend en heeft aangegeven dat er een intuïtiever naamgevingssysteem komt.

Zie ook Kan GPT-4o NSFW-afbeeldingen genereren?

Bereikbaarheid en toekomstige ontwikkelingen

De o3- en o4-mini-modellen zijn nu beschikbaar voor ChatGPT Plus-, Pro- en Team-gebruikers. De uitrol sluit aan bij de recente onthulling van het GPT-4.1-model door OpenAI, wat de snelle vooruitgang van het bedrijf in AI-ontwikkeling weerspiegelt.

CEO Sam Altman heeft de complexiteit van de modelnaamgevingsconventies van OpenAI erkend en heeft aangegeven dat er een intuïtiever naamgevingssysteem komt.

Deze ontwikkelingen onderstrepen de toewijding van OpenAI om de grenzen van AI-mogelijkheden te verleggen en daarbij de nadruk te leggen op veiligheid en toegankelijkheid.

OpenAI lanceerde ook Codex CLI, een open source code-agent die lokaal op de terminal van de gebruiker draait. Het doel is om gebruikers een eenvoudige en duidelijke manier te bieden om AI-modellen (waaronder o3 en o4-mini (met ondersteuning voor GPT-4.1 binnenkort beschikbaar)) te verbinden met code en taken die op hun eigen computer draaien. Codex CLI is open source en is nu toegankelijk op GitHub.

Bezoek CometAPI voor meer informatie over de nieuwste modellen van OpenAI en hun mogelijkheden. o3 API en O4 Mini-APIbeschrijft hoe u toegang krijgt tot de o3 API en O4 Mini API en hoe u deze integreert via CometAPI.

SHARE THIS BLOG

500+ modellen in één API

Tot 20% korting