模型定价企业
500+ AI 模型 API,一次搞定,就在 CometAPI
模型 API
开发者
快速入门文档API 仪表板
公司
关于我们企业
资源
AI 模型博客更新日志支持
服务条款隐私政策
© 2026 CometAPI · All rights reserved
Home/Models/Anthropic/Claude Opus 4.6
C

Claude Opus 4.6

输入:$4/M
输出:$20/M
Claude Opus 4.6 是 Anthropic 的“Opus”级大型语言模型,于 2026 年 2 月发布。其定位为知识工作与研究工作流的主力模型——提升长上下文推理、多步骤规划、工具使用(包括代理型软件工作流),以及计算机使用类任务,如自动生成幻灯片和电子表格。
新
商用
Playground
概览
功能亮点
定价
API
版本
项目Claude Opus 4.6(公开规格)
模型系列Claude Opus(Opus 4.6)
模型 IDclaude-opus-4-6
提供方Anthropic
输入类型文本、结构化文件(文档、表格)、视觉输入(图像/截图)——通过 Messages API 和 Files API
输出类型文本(长文、代码、结构化输出)、流式消息;支持文档与结构化输出
上下文窗口1,000,000 tokens(测试版);可用上下文压缩以扩展有效上下文
最大输出 Token 数128,000
努力度/推理控制低、中、高(默认)、最大;另有自适应思考,可在需要时选择扩展推理
长上下文特性上下文压缩(测试版),标头 compact-2026-01-12;对于大输出建议启用流式传输

什么是 Claude Opus 4.6

Claude Opus 4.6 是 Anthropic 面向复杂、长周期知识型工作与代理式编码工作流的最强大 Opus 级模型(发布于 2026 年 2 月 5 日)。它强调可靠的规划、持久的多步执行,以及在大型代码库与企业任务(如财务分析、法律推理与多文档研究)上的稳健性。

Claude Opus 4.6 的主要特性

  • 超长上下文(测试版):支持 1,000,000-token 上下文窗口(测试版),并提供服务端上下文压缩以汇总与保留长时会话状态。
  • 超大输出:最多 128k 输出 tokens,支持单次请求生成大型文档、报告或多文件代码补丁。
  • 代理式工作流与代理团队:在 Claude Code 中提供研究预览支持,可并行启动多个代理进行评审、测试与多步工程协作。
  • 努力度与自适应思考控制:四档努力级别(低/中/高/最大)与自适应思考,让模型在合适场景下选择更长链路推理。
  • 改进的编码与工具使用:在代码评审、调试、类终端代理工作流,以及与办公工具的集成(Claude in Excel / PowerPoint)方面升级。
  • 上下文压缩与长程工具链:服务端压缩策略与 SDK 支持(流式)帮助管理长时运行的代理,无需手动修剪状态。

Claude Opus 4.6 的基准表现

Anthropic 报告其在多项评测中领先:在 Terminal-Bench 2.0(代理式编码)上取得最高分,在 DeepSearchQA 上表现领先;在 GDPval-AA 上对比 OpenAI 的 GPT-5.2 拥有 144 Elo 的优势;在 BigLaw Bench 上得分为 90.2%(见 Anthropic 发布与系统卡)。方法与注意事项请参阅官方系统卡与发布说明。

基准 / 任务Opus 4.6 报告结果(Anthropic)
Terminal-Bench 2.0(编码)65.4%(据 Anthropic 称为行业领先)。
OSWorld(电脑使用任务)72.7%(Anthropic 最佳的电脑使用模型)。
GDPVal / Elo(自适应思考,合作方基准)Anthropic/合作方在预发布中报告相对其他前沿模型的高 Elo(厂商材料显示 Opus 4.6 在多项代理与编码基准上领先)。独立媒体摘要称 Opus 4.6 在特定专业评测中优于 GPT-5.2。

注意:基准与对比为 Anthropic 于 2026 年 2 月 5 日公告与系统卡中发布的结果;用户应查阅系统卡以了解测试方法与数据集细节。

Claude Opus 4.6 vs Opus 4.5 vs GPT-5.2(对比快照)

模型优势说明
Claude Opus 4.6同级最佳的长跨度推理、代理式编码、100 万 Token(测试版)上下文、128k 输出Anthropic 报告在 GDPval-AA 与 Terminal-Bench 上相较 Opus 4.5 与 OpenAI GPT-5.2 有所提升。
Claude Opus 4.5强大的编码与代理能力(上一代基线)4.6 在规划与长时稳定性上有所改进。
OpenAI GPT-5.2(参考)强大的多模态推理与广泛部署Anthropic 引用在 GDPval-AA 上约 144 Elo 的差距,倾向于 Opus 4.6;不同任务与基准的对比结论可能不同。

代表性企业级用例

  1. 面向代码库规模的重构、多文件迁移与自动补丁生成。
  2. 长时运行的代理式工作流:自动化研究、多文档综合与 CI 编排。
  3. 需要多源交叉验证与结构化输出的财务分析与法律研究。
  4. 文档 → 幻灯片工作流:摄取大型表格、综合发现并生成符合品牌规范的 PowerPoint。
  5. 防御性安全工作流:在受控、审计条件下分级与复现漏洞。

如何访问与使用 Claude Opus 4.6 API

步骤 1:注册获取 API Key

登录 cometapi.com。若尚未成为用户,请先注册。登录你的 CometAPI 控制台。获取接口的访问凭证 API key。在个人中心的 API Token 处点击“Add Token”,获得令牌 key:sk-xxxxx 并提交。

步骤 2:向 claude-opus-4-6 API 发送请求

选择“claude-opus-4-6”端点发送 API 请求并设置请求体。请求方法与请求体可在我们网站的 API 文档获取。我们的网站也提供 Apifox 测试,便于你使用。将账户中的实际 CometAPI Key 替换为 <YOUR_API_KEY>。调用位置: Anthropic Messages 格式与 Chat 格式。

将你的问题或请求插入 content 字段——模型将对该内容进行响应。处理 API 响应以获得生成的答案。

步骤 3:检索并验证结果

处理 API 响应以获得生成的答案。处理完成后,API 将返回任务状态与输出数据。

常见问题

What distinguishes Claude Opus 4.6’s reasoning approach from earlier Claude models?

Claude Opus 4.6 introduces adaptive thinking across multiple effort levels, allowing it to dynamically balance depth and speed of reasoning, improving performance on complex, multi-step problems compared with prior extended thinking modes. :contentReference[oaicite:1]{index=1}

What is the maximum output length and do I need to use streaming?

Opus 4.6 supports up to 128,000 output tokens; SDKs and the platform recommend streaming (e.g., .stream() / streaming messages) for large max_tokens to avoid HTTP timeouts.

What are 'effort' and 'adaptive thinking' controls and when should I change them?

Opus 4.6 supports four effort levels — low, medium, high (default), and max — and an adaptive thinking mode that lets the model select when to apply extended reasoning; lower effort reduces 'overthinking' and cost while higher effort favors deeper reasoning and accuracy.

How does Opus 4.6 compare to Opus 4.5 and to OpenAI's GPT-5.2 on professional tasks?

Anthropic reports Opus 4.6 outperforms Opus 4.5 and cites a ~144 Elo advantage over OpenAI's GPT-5.2 on GDPval-AA, plus top results on Terminal-Bench 2.0 and DeepSearchQA; see the system card for benchmark methodologies and caveats.

Is Claude Opus 4.6 suitable for agentic workflows and what are 'agent teams'?

Yes — Opus 4.6 is designed for sustained agentic tasks and Claude Code supports 'agent teams' (research preview) that run multiple subagents in parallel to coordinate on large, split tasks like codebase reviews.

What safety measures has Anthropic added to Opus 4.6 given its stronger coding and cybersecurity abilities?

Anthropic reports extensive safety testing and six new cybersecurity probes targeted at misuse, plus ongoing system-card evaluations to monitor misaligned behavior and update safeguards.

Which file types and office workflows does Opus 4.6 support (e.g., Excel, PowerPoint)?

Opus 4.6 integrates with office workflows: Anthropic improved Claude in Excel for complex data tasks and released Claude in PowerPoint as a research preview; it also accepts documents, spreadsheets, and vision inputs where supported.

How do I use context compaction in the Messages API for long-running conversations?

Enable the compaction beta by including the compact-2026-01-12 beta header and add a compact_20260112 edit in context_management.edits; compaction summarizes older context automatically to extend effective session length.

Claude Opus 4.6 的功能

了解 Claude Opus 4.6 的核心能力,帮助提升性能与可用性,并改善整体体验。

Claude Opus 4.6 的定价

查看 Claude Opus 4.6 的竞争性定价,满足不同预算与使用需求,灵活方案确保随需求扩展。
Comet 价格 (USD / M Tokens)官方定价 (USD / M Tokens)折扣
输入:$4/M
输出:$20/M
输入:$5/M
输出:$25/M
-20%

Claude Opus 4.6 的示例代码与 API

获取完整示例代码与 API 资源,简化 Claude Opus 4.6 的集成流程,我们提供逐步指导,助你发挥模型潜能。
POST
/v1/chat/completions
POST
/v1/messages
Python
JavaScript
Curl
import anthropic
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = anthropic.Anthropic(
    base_url=BASE_URL,
    api_key=COMETAPI_KEY,
)
message = client.messages.create(
    model="claude-opus-4-6",
    max_tokens=1024,
    messages=[{"role": "user", "content": "Hello, Claude"}],
)
print(message.content[0].text)

Python Code Example

import anthropic
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = anthropic.Anthropic(
    base_url=BASE_URL,
    api_key=COMETAPI_KEY,
)
message = client.messages.create(
    model="claude-opus-4-6",
    max_tokens=1024,
    messages=[{"role": "user", "content": "Hello, Claude"}],
)
print(message.content[0].text)

JavaScript Code Example

import Anthropic from "@anthropic-ai/sdk";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const base_url = "https://api.cometapi.com";

const anthropic = new Anthropic({
  apiKey: api_key,
  baseURL: base_url,
});

const message = await anthropic.messages.create({
  model: "claude-opus-4-6",
  max_tokens: 1024,
  messages: [{ role: "user", content: "Hello, Claude" }],
});

console.log(message.content?.[0]?.text ?? message);

Curl Code Example

# Get your CometAPI key from https://api.cometapi.com/console/token
# Export it as: export COMETAPI_KEY="your-key-here"
curl https://api.cometapi.com/v1/messages \
  --header "Authorization: $COMETAPI_KEY" \
  --header "content-type: application/json" \
  --data \
'{
  "model": "claude-opus-4-6",
  "max_tokens": 1024,
  "messages": [
    {"role": "user", "content": "Hello, Claude"}
  ]
}'

Claude Opus 4.6 的版本

Claude Opus 4.6 可能存在多个快照,原因包括:更新后保持一致性需要保留旧版、给开发者留出迁移窗口,以及全球/区域端点提供的优化差异。具体差异请参考官方文档。
version
claude-opus-4-6

更多模型

C

Claude Opus 4.7

输入:$4/M
输出:$20/M
用于智能体和编程的最智能模型
A

Claude Sonnet 4.6

输入:$2.4/M
输出:$12/M
Claude Sonnet 4.6 是迄今为止我们最强大的 Sonnet 模型。它对模型在编码、计算机使用、长上下文推理、智能体规划、知识工作和设计等方面的能力进行了全面升级。Sonnet 4.6 还在 beta 阶段提供 1M token 上下文窗口。
O

GPT-5.4 nano

输入:$0.16/M
输出:$1/M
GPT-5.4 nano 专为速度和成本最为关键的任务而设计,例如分类、数据提取、排序以及子智能体。
O

GPT-5.4 mini

输入:$0.6/M
输出:$3.6/M
GPT-5.4 mini 将 GPT-5.4 的优势融入到一款更快速、更高效、专为大规模工作负载设计的模型中。
Q

Qwen3.6-Plus

输入:$0.32/M
输出:$1.92/M
Qwen 3.6-Plus 现已发布,具备更强的代码开发能力,并在多模态识别与推理方面效率更高,使 Vibe Coding 体验更佳。
M

Kimi K2.6

输入:$0.48/M
输出:$2.4/M
Kimi K2.6 预览版现已开放测试。