ModèlesTarificationEntreprise
500+ API de modèles IA, toutes en une seule API. Simplement avec CometAPI
API des modèles
Développeur
Démarrage rapideDocumentationTableau de bord API
Entreprise
À proposEntreprise
Ressources
Modèles d'IABlogJournal des modificationsSupport
Conditions d'utilisationPolitique de confidentialité
© 2026 CometAPI · All rights reserved
Home/Models/xAI/Grok 4.20
X

Grok 4.20

Entrée:$1.6/M
Sortie:$4.8/M
Contexte:2,000,000
La version 4.20 de Grok introduit une architecture multi‑agents (plusieurs agents spécialisés coordonnés en temps réel), des modes de contexte étendus, ainsi que des améliorations ciblées en matière de suivi des instructions, de réduction des hallucinations et de sorties structurées/outillées.
Nouveau
Usage commercial
Playground
Aperçu
Fonctionnalités
Tarification
API
Versions

Spécifications techniques de Grok-4.20

ÉlémentGrok-4.20 (spécifications publiques)
Famille de modèlesSérie Grok-4
DéveloppeurxAI
Statut de publicationBeta (premier déploiement le 17 février 2026)
Types d’entréeTexte, Image, Vidéo
Types de sortieSorties textuelles (sorties structurées et appels de fonctions/outils pris en charge).
Fenêtre de contexteJusqu’à 2,000,000 tokens
ArchitectureRaisonnement collaboratif multi-agents
Prise en charge d’outilsAppel de fonctions, sorties structurées
RaisonnementCapacités de raisonnement intégrées
Infrastructure d’entraînementSupercluster Colossus (~200,000 GPUs)
Variantes du modèlegrok-4.20-multi-agent-beta-0309, grok-4.20-beta-0309-reasoning, grok-4.20-beta-0309-non-reasoning.

Qu’est-ce que Grok-4.20

Grok-4.20 est la dernière version expérimentale de la famille Grok-4 développée par xAI. Elle met l’accent sur le raisonnement agentique, la gestion d’un contexte extrêmement long et une inférence à grande vitesse, afin de fournir des réponses précises avec un taux d’hallucination inférieur à celui des modèles Grok précédents.

Contrairement aux anciens modèles Grok qui utilisaient une inférence mono-modèle, Grok-4.20 introduit une collaboration multi-agents, où plusieurs agents internes analysent simultanément une requête et convergent vers une réponse finale. Cette architecture est conçue pour améliorer les performances sur les tâches complexes de raisonnement, de programmation et de recherche.

Principales fonctionnalités de Grok-4.20

  • Fenêtre de contexte ultra-longue (2M tokens) : Permet de traiter des livres entiers, de grands jeux de données ou de longs dépôts de code dans une seule requête.
  • Architecture de raisonnement multi-agents : Jusqu’à quatre agents internes peuvent analyser une requête en parallèle et débattre des solutions avant de produire une réponse finale.
  • Appels d’outils agentiques et sorties structurées : Prend en charge l’appel de fonctions et les réponses structurées pour l’intégration aux applications et aux workflows automatisés.
  • Compréhension multimodale : Accepte des entrées texte, image et vidéo au sein du même pipeline de modèle.
  • Inférence rapide axée sur la réduction des hallucinations : xAI positionne le modèle comme optimisé pour des réponses véridiques et une forte adhérence aux prompts.

Performances de référence de Grok-4.20

Des données publiques de benchmark restent limitées durant la bêta, mais des rapports préliminaires indiquent :

BenchmarkRésultat / Statut
LMSYS Chatbot ArenaELO estimé ~1505–1535
ForecastBenchClassé #2 lors des premiers tests
Défi de trading Alpha ArenaRendements de +34.59%

Ces chiffres suggèrent que Grok-4.20 rivalise avec les modèles de pointe dans des tâches de raisonnement en conditions réelles et pilotées par agents, plutôt que sur de simples questions de benchmark.

Grok-4.20 Bêta vs autres modèles de pointe

ModèleDéveloppeurFenêtre de contexteAtout principal
Grok-4.20xAI2M tokensRaisonnement multi-agents
GPT-5.2OpenAI~400K tokensRaisonnement avancé + programmation
Gemini 3 ProGoogle~1M tokensMultimodalité et écosystème Google
Claude 4 OpusAnthropic~200K+ tokensRaisonnement fiable

Principales différences

  • Grok-4.20 met l’accent sur la collaboration multi-agents pour les tâches de raisonnement.
  • Il offre l’une des plus grandes fenêtres de contexte parmi les LLM en production (2M tokens).
  • Des modèles concurrents peuvent surpasser Grok dans certains domaines comme le raisonnement structuré ou l’écriture créative selon les tâches d’évaluation.

Cas d’utilisation représentatifs

  1. Analyse de recherche à long contexte
    Traiter de longs documents, des contenus juridiques ou des recherches académiques.
  2. Systèmes d’automatisation agentiques
    Construire des workflows multi-étapes où le modèle planifie et exécute les tâches.
  3. Programmation avancée et simulations
    Résoudre des problèmes d’ingénierie ou simuler des systèmes avec de longues chaînes de raisonnement.
  4. Analyse de données et automatisation de tableaux de bord
    Suivre et analyser plusieurs flux de données en parallèle.
  5. Traitement multimodal des connaissances
    Interpréter des images, des trames vidéo et du texte dans un processus de raisonnement unifié.

Comment accéder et utiliser l’API Grok 4.2

Étape 1 : Inscription pour obtenir une clé API

Connectez-vous à cometapi.com. Si vous n’êtes pas encore utilisateur, veuillez d’abord vous inscrire. Connectez-vous à votre console CometAPI. Récupérez la clé API d’identification d’accès de l’interface. Cliquez sur “Add Token” dans la section des jetons API du centre personnel, obtenez la clé de jeton : sk-xxxxx et validez.

Étape 2 : Envoyer des requêtes à l’API Grok 4.2

Sélectionnez l’endpoint “grok-4.20-0309-reasoning” pour envoyer la requête API et définissez le corps de la requête. La méthode et le corps de la requête sont disponibles dans la documentation API de notre site Web. Notre site propose également un test Apifox pour votre commodité. Remplacez <YOUR_API_KEY> par votre clé CometAPI réelle depuis votre compte. Où l’appeler : format Chat.

Insérez votre question ou requête dans le champ content — c’est à cela que le modèle répondra. Traitez la réponse de l’API pour obtenir la réponse générée.

Étape 3 : Récupérer et vérifier les résultats

Traitez la réponse de l’API pour obtenir la réponse générée. Après traitement, l’API renvoie le statut de la tâche et les données de sortie.

FAQ

What makes Grok-4.20 different from previous Grok models?

Grok-4.20 introduit un système de raisonnement multi-agents où plusieurs agents analysent une consigne simultanément et collaborent à une réponse finale, améliorant le raisonnement sur des tâches complexes et les performances de codage.

How large is the context window in the Grok-4.20 API?

Grok-4.20 prend en charge une fenêtre de contexte pouvant aller jusqu’à 2,000,000 tokens, permettant aux développeurs de traiter des documents ou des jeux de données extrêmement longs en une seule requête.

Can Grok-4.20 handle multimodal inputs such as images or video?

Oui. Grok-4.20 prend en charge des entrées multimodales, notamment du texte, des images et de la vidéo, permettant l’analyse de contenus mixtes au sein d’une seule conversation.

How does Grok-4.20 compare with GPT-5.2 or Gemini models?

Grok-4.20 met l’accent sur le raisonnement multi-agents et des fenêtres de contexte très longues, tandis que GPT-5.2 met l’accent sur un raisonnement de haute précision et que les modèles Gemini se concentrent sur l’intégration multimodale au sein de l’écosystème Google.

Is Grok-4.20 available through an API for developers?

Oui. Grok-4.20 est disponible via l'API Come.

What benchmarks show Grok-4.20 performance?

Les premiers rapports situent Grok-4.20 autour de 1505–1535 ELO sur LMSYS Arena et font état de résultats solides dans des compétitions en conditions réelles telles que les simulations de trading Alpha Arena.

Fonctionnalités pour Grok 4.20

Découvrez les fonctionnalités clés de Grok 4.20, conçues pour améliorer les performances et la facilité d'utilisation. Explorez comment ces capacités peuvent bénéficier à vos projets et améliorer l'expérience utilisateur.

Tarification pour Grok 4.20

Découvrez des tarifs compétitifs pour Grok 4.20, conçus pour s'adapter à différents budgets et besoins d'utilisation. Nos formules flexibles garantissent que vous ne payez que ce que vous utilisez, ce qui facilite l'adaptation à mesure que vos besoins évoluent. Découvrez comment Grok 4.20 peut améliorer vos projets tout en maîtrisant les coûts.
Prix de Comet (USD / M Tokens)Prix officiel (USD / M Tokens)Remise
Entrée:$1.6/M
Sortie:$4.8/M
Entrée:$2/M
Sortie:$6/M
-20%

Exemple de code et API pour Grok 4.20

Accédez à des exemples de code complets et aux ressources API pour Grok 4.20 afin de simplifier votre processus d'intégration. Notre documentation détaillée fournit des instructions étape par étape pour vous aider à exploiter tout le potentiel de Grok 4.20 dans vos projets.
POST
/v1/chat/completions
Python
JavaScript
Curl
import os

from openai import OpenAI

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="grok-4.20-multi-agent-beta-0309",
    input=[
        {
            "role": "user",
            "content": "Research the latest breakthroughs in quantum computing and summarize the key findings.",
        }
    ],
    tools=[{"type": "web_search"}, {"type": "x_search"}],
)

print(response.output_text or response.model_dump_json(indent=2))

Python Code Example

import os

from openai import OpenAI

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="grok-4.20-multi-agent-beta-0309",
    input=[
        {
            "role": "user",
            "content": "Research the latest breakthroughs in quantum computing and summarize the key findings.",
        }
    ],
    tools=[{"type": "web_search"}, {"type": "x_search"}],
)

print(response.output_text or response.model_dump_json(indent=2))

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const apiKey = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const baseUrl = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey,
  baseURL: baseUrl,
});

const response = await client.responses.create({
  model: "grok-4.20-multi-agent-beta-0309",
  input: [
    {
      role: "user",
      content: "Research the latest breakthroughs in quantum computing and summarize the key findings.",
    },
  ],
  tools: [{ type: "web_search" }, { type: "x_search" }],
});

console.log(response.output_text ?? JSON.stringify(response.output, null, 2));

Curl Code Example

#!/usr/bin/env bash
# Get your CometAPI key from https://api.cometapi.com/console/token
# Export it as: export COMETAPI_KEY="your-key-here"

response=$(curl --silent --location --request POST "https://api.cometapi.com/v1/responses" \
  --header "Authorization: Bearer $COMETAPI_KEY" \
  --header "Content-Type: application/json" \
  --header "Accept: application/json" \
  --data-raw '{
    "model": "grok-4.20-multi-agent-beta-0309",
    "input": [
      {
        "role": "user",
        "content": "Research the latest breakthroughs in quantum computing and summarize the key findings."
      }
    ],
    "tools": [
      {"type": "web_search"},
      {"type": "x_search"}
    ]
  }')

if command -v jq >/dev/null 2>&1; then
  printf '%s\n' "$response" | jq -r '(
    [
      .output[]?
      | select(.type == "message")
      | .content[]?
      | select(.type == "output_text")
      | .text
    ][0]
  ) // .output_text // .'
else
  printf '%s\n' "$response"
fi

Versions de Grok 4.20

La raison pour laquelle Grok 4.20 dispose de plusieurs instantanés peut inclure des facteurs potentiels tels que des variations de sortie après des mises à jour nécessitant des instantanés plus anciens pour la cohérence, offrant aux développeurs une période de transition pour l'adaptation et la migration, et différents instantanés correspondant à des points de terminaison globaux ou régionaux pour optimiser l'expérience utilisateur. Pour les différences détaillées entre les versions, veuillez consulter la documentation officielle.
id du modèledescriptionDisponibilitéRequête
grok-4.20-multi-agent-beta-0309Variante multi‑agents adaptée à l’orchestration d’agents en temps réel et à l’appel d’outils (utile pour des workflows de recherche approfondie où plusieurs sous‑agents effectuent des recherches sur le Web, exécutent du code et mènent des analyses critiques).✅appels au format de réponse.
grok-4.20-0309-reasoningVariante optimisée pour le raisonnement : privilégie un raisonnement de type chaîne de pensée plus approfondi et de meilleurs scores aux benchmarks sur les tests fortement axés sur le raisonnement ; latence et coût par jeton plus élevés attendus par rapport aux variantes non axées sur le raisonnement.✅appel au format de chat et appels au format de réponse.
grok-4.20-0309-non-reasoningVariante à plus faible latence et à moindre coût pour des tâches à haut débit où des réponses courtes et déterministes ou des sorties en streaming sont prioritaires ; les compromis incluent des scores de référence en raisonnement plus faibles.✅appel au format de chat et appels au format de réponse.

Plus de modèles

C

Claude Opus 4.7

Entrée:$3/M
Sortie:$15/M
Le modèle le plus intelligent pour les agents et la programmation
A

Claude Sonnet 4.6

Entrée:$2.4/M
Sortie:$12/M
Claude Sonnet 4.6 est notre modèle Sonnet le plus performant à ce jour. Il s’agit d’une mise à niveau complète des capacités du modèle dans la programmation, l’usage de l’ordinateur, le raisonnement sur des contextes étendus, la planification d’agents, le travail intellectuel et la conception. Sonnet 4.6 propose également une fenêtre de contexte de 1M de jetons en bêta.
O

GPT 5.5 Pro

Entrée:$24/M
Sortie:$144/M
Un modèle avancé conçu pour une complexité logique extrême et des exigences professionnelles, représentant le plus haut niveau de raisonnement profond et de capacités d'analyse précises.
O

GPT 5.5

Entrée:$4/M
Sortie:$24/M
Un modèle phare multimodal de nouvelle génération alliant des performances exceptionnelles à une réactivité efficace, dédié à la fourniture de services d’IA polyvalents, complets et stables.
O

GPT Image 2 ALL

Par requête:$0.04
GPT Image 2 est le modèle de génération d’images de pointe d’OpenAI pour une génération et une édition d’images rapides et de haute qualité. Il prend en charge des tailles d’image flexibles et des entrées d’images de haute fidélité.
O

GPT 5.5 ALL

Entrée:$4/M
Sortie:$24/M
GPT-5.5 excelle en écriture de code, en recherche en ligne, en analyse de données et dans les opérations multi-outils. Le modèle améliore non seulement son autonomie dans la gestion de tâches complexes en plusieurs étapes, mais il améliore également de manière significative ses capacités de raisonnement et son efficacité d’exécution, tout en conservant la même latence que son prédécesseur, marquant une étape importante vers l’automatisation des tâches bureautiques par l’IA.

Blogs connexes

Cursor Composer vs Windsurf vs GitHub Copilot : Tarifs et ce que vous obtenez réellement
Apr 20, 2026
copilot
composer-2
windsurf

Cursor Composer vs Windsurf vs GitHub Copilot : Tarifs et ce que vous obtenez réellement

Si vous recherchez les meilleurs résultats autonomes, Cursor l’emporte généralement. Si vous recherchez l’expérience d’édition guidée la plus fluide, Windsurf est souvent le plus confortable. Si vous recherchez le meilleur flux de travail natif de GitHub par dollar dépensé, Copilot est le plus pratique. Ce classement est une inférence fondée sur la conception actuelle des produits, la tarification et les modèles d’agents publiés par chaque fournisseur.
Qu'est-ce que Grok 4.2 : fonctionnalités, architecture et comparaisons
Mar 12, 2026
grok-4-2

Qu'est-ce que Grok 4.2 : fonctionnalités, architecture et comparaisons

Grok 4.2 est le modèle phare en bêta publique de xAI dans la famille Grok 4 : un modèle de génération multi-agents, avec prise en charge des outils, offrant un débit leader du secteur, une immense fenêtre de contexte en mode agent de 2,000,000 tokens, et des variantes d’API spécialisées telles que grok-4.20-multi-agent-beta-0309, grok-4.20-beta-0309-reasoning et grok-4.20-beta-0309-non-reasoning. Il est optimisé pour des flux de travail rapides, pilotés par des agents (données X en temps réel / appels d’outils), est disponible sur le Web, iOS/Android et via des canaux API précoces, par ex. CometAPI, et s’adresse aux utilisateurs qui ont besoin d’assistants rapides, sensibles aux données en temps réel, plutôt que d’un raisonnement long format des plus approfondis.
Comment utiliser l'API Grok 4.2 en 2026
Mar 12, 2026
grok-4-2

Comment utiliser l'API Grok 4.2 en 2026

Grok 4.2 est le dernier modèle de raisonnement multi-agents de xAI, qui combine quatre agents coopérants et de nouvelles fonctionnalités agentiques d’appel d’outils afin d’offrir une inférence beaucoup plus rapide, moins sujette aux hallucinations, pour les charges de travail d’entreprise. Pour l’appeler aujourd’hui, la plupart des développeurs (a) utilisent les points de terminaison REST/gRPC officiels de xAI ou (b) l’appellent via un agrégateur comme CometAPI (point de terminaison REST unique,post https://api.cometapi.com/v1/responsess) qui simplifie les clés, la facturation et le basculement entre modèles.
Grok 4.2 : ce qu’il apportera et pourquoi cela compte pour l’IA en 2026
Jan 18, 2026
grok-4-2

Grok 4.2 : ce qu’il apportera et pourquoi cela compte pour l’IA en 2026

Grok 4.2, une itération sophistiquée du modèle phare d’Elon Musk. Contrairement à ses prédécesseurs, Grok 4.2 est arrivé par une série de « points de contrôle furtifs » — des variantes mystérieuses du modèle apparaissant dans les classements sous des noms de code tels que *Obsidian, Vortex Shade et Quantum Crow.*