ModelleSupportUnternehmenBlog
500+ KI-Modell-APIs, Alles in einer API. Nur bei CometAPI
Modelle-API
Entwickler
SchnellstartDokumentationAPI Dashboard
Ressourcen
KI-ModelleBlogUnternehmenÄnderungsprotokollÜber uns
2025 CometAPI. Alle Rechte vorbehalten.DatenschutzrichtlinieNutzungsbedingungen
Home/Models/xAI/Grok 3 Mini
X

Grok 3 Mini

Eingabe:$0.24/M
Ausgabe:$0.4/M
Ein leichtgewichtiges Modell, das nachdenkt, bevor es antwortet. Schnell, intelligent und ideal für logikbasierte Aufgaben, die keine tiefen Fachkenntnisse erfordern. Unbearbeitete Gedankengänge sind zugänglich. Dieses Modell unterstützt eine maximale Kontextlänge von 100,000 Token.
Neu
Kommerzielle Nutzung
Überblick
Funktionen
Preisgestaltung
API
Versionen

Vorteile von Grok 3 Mini

  • Geschwindigkeit und Effizienz: Grok 3 mini liefert nahezu sofortige Antworten und verbessert die Nutzererfahrung in interaktiven Anwendungen.
  • Ressourcenoptimierung: Das Design des Modells sorgt für geringere Rechenanforderungen und reduziert Betriebs­kosten sowie Energieverbrauch.
  • Skalierbarkeit: Seine effiziente Architektur ermöglicht die Bereitstellung auf verschiedenen Plattformen, von Mobilgeräten bis hin zu groß angelegten Unternehmenssystemen.

Leistungsmetriken

In Benchmark-Tests hat Grok 3 mini eine beachtliche Leistung gezeigt. So erzielte Grok 3 mini im GPQA-Benchmark, der naturwissenschaftliches Wissen auf Graduate-Niveau bewertet, einen Wert von 66.2%. Zudem erreichte es im AIME 2024 Benchmark für mathematisches Schlussfolgern 39.7%.

Anwendungsszenarien

Die Vielseitigkeit von Grok 3 mini macht es für eine Reihe von Anwendungen geeignet:

  • Kundensupport: Die schnelle Reaktionsfähigkeit erhöht die Nutzerzufriedenheit in Support-Interaktionen.
  • Mobile Anwendungen: Die Effizienz des Modells gewährleistet eine flüssige Performance auf Geräten mit begrenzten Rechenressourcen.
  • Echtzeit-Datenanalyse: Grok 3 mini kann Datenströme zügig verarbeiten und interpretieren und unterstützt so zeitnahe Entscheidungen.
  • Interaktive Lernwerkzeuge: Die Fähigkeit, schnell und präzise Informationen bereitzustellen, unterstützt dynamische Lernumgebungen.
  • So greifen Sie auf die Grok 3 Mini API zu

Schritt 1: Für API-Schlüssel registrieren

Melden Sie sich bei cometapi.com an. Wenn Sie noch kein Nutzer sind, registrieren Sie sich bitte zuerst. Melden Sie sich in Ihrer CometAPI console an. Rufen Sie den Zugangs-API-Schlüssel der Schnittstelle ab. Klicken Sie im persönlichen Bereich beim API-Token auf „Add Token“, erhalten Sie den Token-Schlüssel: sk-xxxxx und senden Sie ihn ab.

Schritt 2: Anfragen an die Grok 3 Mini API senden

Wählen Sie den Endpunkt „\grok-3-mini \“, um die API-Anfrage zu senden, und legen Sie den Request-Body fest. Methode und Body der Anfrage entnehmen Sie der API-Dokumentation auf unserer Website. Unsere Website stellt außerdem einen Apifox-Test zu Ihrer Bequemlichkeit bereit. Ersetzen Sie <YOUR_API_KEY> durch Ihren tatsächlichen CometAPI-Schlüssel aus Ihrem Konto. Die Basis-URL hat das [Chat]-Format(https://api.cometapi.com/v1/chat/completions).

Fügen Sie Ihre Frage oder Anfrage in das content-Feld ein — darauf antwortet das Modell. Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten.

Schritt 3: Ergebnisse abrufen und verifizieren

Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten. Nach der Verarbeitung antwortet die API mit dem Aufgabenstatus und den Ausgabedaten.

Funktionen für Grok 3 Mini

Entdecken Sie die wichtigsten Funktionen von Grok 3 Mini, die darauf ausgelegt sind, Leistung und Benutzerfreundlichkeit zu verbessern. Erfahren Sie, wie diese Fähigkeiten Ihren Projekten zugutekommen und die Benutzererfahrung verbessern können.

Preise für Grok 3 Mini

Entdecken Sie wettbewerbsfähige Preise für Grok 3 Mini, die für verschiedene Budgets und Nutzungsanforderungen konzipiert sind. Unsere flexiblen Tarife stellen sicher, dass Sie nur für das bezahlen, was Sie nutzen, und erleichtern die Skalierung entsprechend Ihren wachsenden Anforderungen. Erfahren Sie, wie Grok 3 Mini Ihre Projekte verbessern kann, während die Kosten überschaubar bleiben.
Comet-Preis (USD / M Tokens)Offizieller Preis (USD / M Tokens)Rabatt
Eingabe:$0.24/M
Ausgabe:$0.4/M
Eingabe:$0.3/M
Ausgabe:$0.5/M
-20%

Beispielcode und API für Grok 3 Mini

Greifen Sie auf umfassende Beispielcodes und API-Ressourcen für Grok 3 Mini zu, um Ihren Integrationsprozess zu optimieren. Unsere detaillierte Dokumentation bietet schrittweise Anleitungen und hilft Ihnen dabei, das volle Potenzial von Grok 3 Mini in Ihren Projekten zu nutzen.
POST
/v1/chat/completions

Versionen von Grok 3 Mini

Der Grund, warum Grok 3 Mini mehrere Snapshots hat, kann potenzielle Faktoren wie Änderungen der Ausgabe nach Updates umfassen, die ältere Snapshots für Konsistenz erfordern, Entwicklern eine Übergangszeit für Anpassung und Migration bieten und verschiedene Snapshots, die globalen oder regionalen Endpunkten entsprechen, um das Benutzererlebnis zu optimieren. Für detaillierte Unterschiede zwischen den Versionen lesen Sie bitte die offizielle Dokumentation.
version
grok-3-mini-fast-latest
grok-3-mini-latest
grok-3-mini
grok-3-mini-fast

Weitere Modelle

O

o4-mini-deep-research

O

o4-mini-deep-research

Eingabe:$1.6/M
Ausgabe:$6.4/M
O4-Mini-Deep-Research ist OpenAIs neuestes agentisches Reasoning-Modell und kombiniert das leichtgewichtige o4‑mini‑Backbone mit dem fortgeschrittenen Deep Research Framework. Entwickelt, um eine schnelle, kosteneffiziente, tiefgehende Informationssynthese bereitzustellen, ermöglicht es Entwicklern und Forschern, automatisierte Websuchen, Datenanalysen und Chain-of-Thought-Reasoning innerhalb eines einzigen API-Aufrufs durchzuführen.
O

O3 Pro

O

O3 Pro

Eingabe:$16/M
Ausgabe:$64/M
OpenAI o3‑pro ist eine “pro”-Variante des o3‑Reasoning‑Modells, die darauf ausgelegt ist, länger nachzudenken und die zuverlässigsten Antworten zu liefern, indem sie privates Chain‑of‑Thought‑Reinforcement‑Learning einsetzt und neue State‑of‑the‑Art‑Benchmarks in Bereichen wie Wissenschaft, Programmierung und Wirtschaft setzt—während sie autonom Tools wie Websuche, Dateianalyse, Python‑Ausführung und visuelles Schlussfolgern über die API integriert.
L

Llama-4-Scout

L

Llama-4-Scout

Eingabe:$0.216/M
Ausgabe:$1.152/M
Llama-4-Scout ist ein universelles Sprachmodell für assistentenähnliche Interaktionen und Automatisierung. Es beherrscht das Befolgen von Anweisungen, Schlussfolgern, Zusammenfassungen und Transformationsaufgaben und kann leichte codebezogene Unterstützung bieten. Typische Anwendungsfälle umfassen Chat-Orchestrierung, wissensangereichertes QA und die Generierung strukturierter Inhalte. Zu den technischen Highlights zählen die Kompatibilität mit Tool-/Funktionsaufrufmustern, retrieval-augmentiertes Prompting und schema-konforme Ausgaben zur Integration in Produkt-Workflows.
L

Llama-4-Maverick

L

Llama-4-Maverick

Eingabe:$0.48/M
Ausgabe:$1.44/M
Llama-4-Maverick ist ein Allgemeinzweck-Sprachmodell für Textverständnis und -generierung. Es unterstützt konversationelles QA, Zusammenfassung, strukturiertes Verfassen und grundlegende Unterstützung beim Programmieren, mit Optionen für strukturierte Ausgaben. Häufige Anwendungsfälle umfassen Produktassistenten, Frontends für Wissensabruf und Workflow-Automatisierung, die eine konsistente Formatierung erfordern. Technische Details wie Parameteranzahl, Kontextfenster, Modalität sowie Tool- oder Funktionsaufrufe variieren je nach Distribution; integrieren Sie gemäß den dokumentierten Fähigkeiten der jeweiligen Bereitstellung.
M

Kimi-K2

M

Kimi-K2

Eingabe:$0.48/M
Ausgabe:$1.92/M
- **kimi-k2-250905**: Kimi K2-Serie von Moonshot AI, Version 0905, unterstützt ultralangen Kontext (bis zu 256k Tokens, Frontend- und Tool-Aufrufe). - 🧠 Erweitertes Tool Calling: 100 % Genauigkeit, nahtlose Integration, geeignet für komplexe Aufgaben und Integrationsoptimierung. - ⚡️ Effizientere Leistung: TPS bis zu 60-100 (Standard-API), bis zu 600-100 im Turbo-Modus, mit schnelleren Reaktionszeiten und verbesserten Inferenzfähigkeiten, Wissensstand bis Mitte 2025.
X

Grok 3 Reasoner

X

Grok 3 Reasoner

Eingabe:$2.4/M
Ausgabe:$12/M
Grok-3 Reasoning-Modell, mit Chain-of-Thought, Elon Musks Konkurrent zu R1. Dieses Modell unterstützt eine maximale Kontextlänge von 100,000 Token.