模型支持企业博客
500+ AI 模型 API,一次搞定,就在 CometAPI
模型 API
开发者
快速入门文档API 仪表板
资源
AI 模型博客企业更新日志关于
2025 CometAPI。保留所有权利。隐私政策服务条款
Home/Models/xAI/Grok 3 Mini
X

Grok 3 Mini

输入:$0.24/M
输出:$0.4/M
一种轻量级模型,先思考后回答。快速、智能,非常适合不需要深厚领域知识的逻辑类任务。原始思维轨迹可访问。该模型支持最多 100,000 个 token 的上下文长度。
新
商用
概览
功能亮点
定价
API
版本

Grok 3 Mini 的优势

  • 速度与效率:Grok 3 mini 提供近乎瞬时的响应,提升交互式应用中的用户体验。
  • 资源优化:模型设计确保更低的计算需求,降低运营成本与能源消耗。
  • 可扩展性:其高效架构便于在多种平台上部署,从移动设备到大规模企业系统。

性能指标

在基准评测中,Grok 3 mini 展现出不俗的表现。例如,在评估研究生水平科学知识的 GPQA 基准上,Grok 3 mini 获得了 66.2% 的分数。此外,在 AIME 2024 数学推理基准中,其得分为 39.7%。

应用场景

Grok 3 mini 的多样性使其适用于多种应用:

  • 客户支持:其快速响应能力可提升支持交互中的用户满意度。
  • 移动应用:模型的高效性确保在计算资源有限的设备上也能流畅运行。
  • 实时数据分析:Grok 3 mini 能及时处理与解析数据流,助力及时决策。
  • 交互式教育工具:其提供快速准确信息的能力支持动态学习环境。
  • 如何访问 Grok 3 Mini API

步骤 1:注册获取 API 密钥

登录 cometapi.com。如果您还不是我们的用户,请先注册。登录您的 CometAPI 控制台。获取接口的访问凭证 API 密钥。在个人中心的 API token 处点击“Add Token”,获取令牌密钥:sk-xxxxx 并提交。

步骤 2:向 Grok 3 Mini API 发送请求

选择 “\grok-3-mini \” 端点发送 API 请求并设置请求体。请求方法与请求体请参见我们网站的 API 文档。为方便您调试,我们的网站还提供 Apifox 测试。将 <YOUR_API_KEY> 替换为您账户中的实际 CometAPI 密钥。基础 URL 为 Chat 格式(https://api.cometapi.com/v1/chat/completions)。

在 content 字段中插入您的问题或请求——模型将对此作出回应。处理 API 响应以获取生成的答案。

步骤 3:获取并验证结果

处理 API 响应以获取生成的答案。处理完成后,API 将返回任务状态与输出数据。

Grok 3 Mini 的功能

了解 Grok 3 Mini 的核心能力,帮助提升性能与可用性,并改善整体体验。

Grok 3 Mini 的定价

查看 Grok 3 Mini 的竞争性定价,满足不同预算与使用需求,灵活方案确保随需求扩展。
Comet 价格 (USD / M Tokens)官方定价 (USD / M Tokens)折扣
输入:$0.24/M
输出:$0.4/M
输入:$0.3/M
输出:$0.5/M
-20%

Grok 3 Mini 的示例代码与 API

获取完整示例代码与 API 资源,简化 Grok 3 Mini 的集成流程,我们提供逐步指导,助你发挥模型潜能。
POST
/v1/chat/completions

Grok 3 Mini 的版本

Grok 3 Mini 可能存在多个快照,原因包括:更新后保持一致性需要保留旧版、给开发者留出迁移窗口,以及全球/区域端点提供的优化差异。具体差异请参考官方文档。
version
grok-3-mini
grok-3-mini-fast
grok-3-mini-fast-latest
grok-3-mini-latest

更多模型

O

o4-mini-deep-research

O

o4-mini-deep-research

输入:$1.6/M
输出:$6.4/M
O4-Mini-Deep-Research is OpenAI’s latest agentic reasoning model, combining the lightweight o4-mini backbone with the advanced Deep Research framework. Designed to deliver fast, cost-efficient deep information synthesis, it enables developers and researchers to perform automated web searches, data analysis, and chain-of-thought reasoning within a single API call.
O

O3 Pro

O

O3 Pro

输入:$16/M
输出:$64/M
OpenAI o3‑pro is a “pro” variant of the o3 reasoning model engineered to think longer and deliver the most dependable responses by employing private chain‑of‑thought reinforcement learning and setting new state‑of‑the‑art benchmarks across domains like science, programming, and business—while autonomously integrating tools such as web search, file analysis, Python execution, and visual reasoning within API.
L

Llama-4-Scout

L

Llama-4-Scout

输入:$0.216/M
输出:$1.152/M
Llama-4-Scout is a general-purpose language model for assistant-style interaction and automation. It handles instruction following, reasoning, summarization, and transformation tasks, and can support light code-related assistance. Typical uses include chat orchestration, knowledge-augmented QA, and structured content generation. Technical highlights include compatibility with tool/function calling patterns, retrieval-augmented prompting, and schema-constrained outputs for integration into product workflows.
L

Llama-4-Maverick

L

Llama-4-Maverick

输入:$0.48/M
输出:$1.44/M
Llama-4-Maverick is a general-purpose language model for text understanding and generation. It supports conversational QA, summarization, structured drafting, and basic coding assistance, with options for structured outputs. Common applications include product assistants, knowledge retrieval front-ends, and workflow automation that require consistent formatting. Technical details such as parameter count, context window, modality, and tool or function calling vary by distribution; integrate according to the deployment’s documented capabilities.
M

Kimi-K2

M

Kimi-K2

输入:$0.48/M
输出:$1.92/M
- **kimi-k2-250905**: Moonshot AI's Kimi K2 series 0905 version, supporting ultra-long context (up to 256k tokens, frontend and Tool calls). - 🧠 Enhanced Tool Calling: 100% accuracy, seamless integration, suitable for complex tasks and integration optimization. - ⚡️ More Efficient Performance: TPS up to 60-100 (standard API), up to 600-100 in Turbo mode, providing faster response and improved Inference capabilities, knowledge cutoff up to mid-2025.
X

Grok 3 Reasoner

X

Grok 3 Reasoner

输入:$2.4/M
输出:$12/M
Grok-3 推理模型,具备链式思维,埃隆·马斯克的 R1 竞品。该模型支持的最大上下文长度为 100,000 个 token。