OpenAI 最新的 Sora 更新,已经将这款产品从一个新奇的视频生成器,推进为更严肃的创作者与开发者平台。最新的官方资料显示了三个重要变化:Sora 1 已在美国停用,Sora 2 已成为当地默认的 Sora 体验,并且 API 已扩展,支持更长的视频生成、可复用的角色参考、视频延展以及批量处理。
Sora 2 视频目前在 OpenAI 官方 API 和 Sora Video Editor 中,每个生成片段最长可达 20 秒。 OpenAI 还支持每次最多延展 20 秒的视频扩展,最多可进行六次扩展,因此拼接后的总时长最长可达 120 秒。对于 Sora 2 API,CometAPI 支持 20 秒和 2K。
什么是 Sora 2,为什么时长很重要
Sora 2 是 OpenAI 的第二代视频 + 音频生成模型,也是 Sora 应用和网页创作器中的核心引擎。它于 2025 年末作为旗舰视频生成模型公开发布,重点特性包括物理真实感、同步对白与音效,以及对场景更高程度的控制。随着该模型的推出,OpenAI 也同步带来了应用更新(iOS → Android)以及 storyboards 等功能,用于帮助规划多镜头序列。
与早期系统不同,Sora 2 融合了以下能力:
- 高级空间推理(理解 3D 环境)
- 跨帧时间一致性
- 角色与物体连续性
- 同步音频(对白 + 音效)
这使它能够生成电影级序列,而不只是简单的动画短片。
相比 Sora 1 的关键技术改进
| 功能 | Sora 1 | Sora 2 |
|---|---|---|
| 视频时长 | ~6–10 秒 | 最长 25 秒 |
| 场景复杂度 | 有限 | 支持多场景 |
| 音频 | 极少 | 同步音频 |
| 控制方式 | 基础提示词 | Storyboards、结构化控制 |
Sora 2 代表着从“片段生成”向“场景构建”转变,从而支持更有意义的叙事,以及广告、产品演示、短片等商业用途。
Sora 2 视频的精确时长限制(网页端 vs API)
目前单个 Sora 2 片段有多长?
当前官方答案很简单:单个生成片段为 20 秒。OpenAI 的 API 指南写道:“生成最长 20 秒的视频”,Sora 帮助中心也表示,Sora Video Editor 可生成“最长 20 秒”的视频,同时保持视觉质量和提示词遵循度。
在网页端,Sora 2 视频能有多长?
OpenAI 最新的 Sora 发布说明指出,所有用户现在都可以在应用和网页端生成 15 秒视频,除默认的 10 秒外,Pro 用户还可以在网页端通过 storyboard 生成功能生成 25 秒视频。相同的发布说明还提到,15 秒视频会按两个视频计入每日额度,25 秒视频则按四个视频计入。
标准创作器与 storyboard 模式之间也存在定性差异。Storyboards 允许用户按秒勾画视频,而 Pro 用户可以借此在网页端生成 25 秒视频。拼接视频总时长最多可达 60 秒,这意味着当你使用多个片段拼接,而不是一次连续生成时,就可以制作更长的视频。
因此,网页端体验最好理解为一个分层系统:默认的短视频生成用于快速迭代,更长的片段适合更有野心的场景,而 storyboard 或拼接则用于需要叙事连续性的项目。用新闻摘要式的话来说,关键更新在于:OpenAI 已经突破了旧的 10 秒上限,现在允许用户直接在 Sora 界面中处理明显更长的片段。
Sora 应用中的视频创建采用按账户滚动计算的 24 小时限制,而不是按午夜重置,因此每次提交都会立即计入,只有在离开 24 小时窗口后才会被释放。
通过 API,Sora 2 视频可以多长?
API 比网页应用更细粒度。自 2026 年 3 月起,支持的 seconds 值为 4、8、12、16 和 20,默认值为 4 秒。同一份指南还表示,最新更新已将最大时长从 12 秒提升到 20 秒,这对于围绕短视频生成构建产品的开发者来说,是一次重要扩展。
sora-2 和 sora-2-pro 都支持 16 秒和 20 秒生成,并且 API 是异步的:POST /v1/videos 请求会返回一个 job 对象,开发者可以轮询 GET /videos/{video_id} 或使用 webhook 跟踪完成状态。这意味着该 API 是为结构化生产工作流设计的,而不是简单的一键生成。
时长控制还有第二层:通过扩展实现。每次扩展最多可增加 20 秒,单个视频最多可扩展六次,总时长可达 120 秒。扩展会保留运动、镜头方向和场景连续性,因此当某个片段需要变成长序列,同时又不能丢失原始视觉逻辑时,这项能力非常有用。
API 还支持通过 POST /v1/videos/characters 创建可复用角色参考,通过 POST /v1/videos/{video_id}/edits 进行视频编辑,以及通过 POST /v1/videos 发起生成。换句话说,当前的 Sora API 已不再只是“输入文本,输出视频”;它正在演变成一个紧凑的创意工作流,涵盖角色、扩展、编辑和批处理任务。
按模式划分的 Sora 2 时长限制
| 模式 / 功能 | 官方时长限制 | 说明 |
|---|---|---|
| 基础 Sora 2 生成 | 最长 20 秒 | 当前官方 API 和 Sora 编辑器限制 |
| 视频扩展 | 每次最多 20 秒 | 使用完整源片段作为上下文添加新片段 |
| 拼接视频总时长 | 最长 120 秒 | 最多可扩展六次 |
| sora-2-pro 分辨率档位 | 支持 1080p 输出 | 适用于 1920×1080 和 1080×1920 导出 |
| 渲染延迟 | 更长片段和 1080p 更慢 | OpenAI 表示这些任务可能明显更慢 |
时长差异为什么会这么大:
- 模型变体(
sora-2vssora-2-pro)—— Pro 保真度更高,通常也更慢、更贵。 - 分辨率与帧数—— 1080p 比 720p/480p 耗时更长。
- 场景复杂度—— 物理效果、角色、运动复杂度以及音频生成都会增加计算量。基准测试显示,某些场景类型(物理密集型、角色动画)会提高渲染时间。
- 服务器负载 / 并发—— 在高峰时段,或你的账户/区域同时提交了许多高负载任务时,排队时间会增加。
为什么 Sora 2 将视频限制在 ~20 秒左右
1. 计算约束与成本扩张
视频生成比图像生成昂贵得多,而且成本呈指数级上升。
- 一个 10 秒的高清视频片段可能花费 ~$5(pro 档)
- 成本按秒增长,而不是按片段增长
- 视频越长,延迟和 GPU 需求越高
👉 这就是为什么:
- OpenAI 将默认片段限制在 20 秒
- 鼓励采用模块化生成工作流
2. 时间一致性挑战
随着时间推移保持真实感非常困难:
- 运动漂移
- 角色不一致
- 物理规律失真
短片段可以实现:
- 更好的帧间一致性
- 更强的提示词遵循度
- 更高的视觉保真度
3. 延迟与用户体验
根据 API 指南:
- 更长片段**“完成所需时间会明显更长”**
对于真实世界应用来说:
- 5–10 秒片段 → 快速迭代
- 20 秒片段 → 适合生产质量镜头
如何创建超过单次 Sora 2 生成长度的视频
- 先使用可用的最长单个片段,再将片段拼接起来。 OpenAI 表示,Sora 视频生成在 API/帮助文档中最高可达 20 秒,而 Sora 应用支持总长最多 60 秒的拼接视频,可使用任意片段长度组合。
- 将其设计为 storyboard,而不是一个超长镜头。 OpenAI 的 Storyboard 模式允许你逐秒勾画视频,这是将更长序列设计成多个短节拍链条的最清晰方式。
- 使用现有片段上的内置续接工具。 在 Sora 中,Re-cut 会将生成的视频在新的 storyboard 中打开,以便裁剪或延展;Remix 会基于现有生成内容创建新版本;Blend 可在两个视频之间建立过渡;Loop 则可从片段的一部分创建无缝循环。这些都是 OpenAI 文档中用于将作品扩展到单次生成之外的原生工作流。
在实际操作中,最干净的方法是:先制作 10–20 秒的场景,使用 Storyboard/Re-cut 将它们连接起来,然后将完成的片段拼接成更长的视频序列。
使用 Sora 2 制作视频要花多少钱?
Sora 2 网页端:
Sora 2 视频生成在网页端的费用为:10 秒视频 10 credits,15 秒视频 20 credits,25 秒视频 30 credits(仅限 Pro 网页生成)。对于 Sora 2 Pro,标准分辨率视频的费用为 10 秒 40 credits、15 秒 80 credits、25 秒 120 credits;高分辨率视频则为 10 秒 250 credits、15 秒 500 credits。OpenAI 还指出,每个视频消耗的 credits 会因时长、分辨率和其他因素而不同,而且更长的视频每秒可能消耗更多 credits,因为它们需要更多算力。
API 侧
OpenAI 现在公布了按秒计费。标准 sora-2 在 720p 下的价格为每秒 $0.10,而 sora-2-pro 在 720p 下为每秒 $0.30,在 1024p 下为每秒 $0.50,在 1080p 下为每秒 $0.70。Batch 定价在相同档位下可享半价折扣。
CometAPI 为 Sora 2 API 提供 20% 折扣:
| Model Name | Orientation | Resolution | Price |
|---|---|---|---|
| sora-2-pro | Portrait | 720x1280 | $0.24 / sec |
| sora-2-pro | Landscape | 1280x720 | $0.24 / sec |
| sora-2-pro | Portrait (High Res) | 1024x1792 | $0.40 / sec |
| sora-2-pro | Landscape (High Res) | 1792x1024 | $0.40 / sec |
| sora-2 | Portrait | 720x1280 | $0.08 / sec |
| sora-2 | Landscape | 1280x720 | $0.08 / sec |
实际任务的预估成本
何时选择 sora-2,何时选择 sora-2-pro
- 使用
sora-2:适合快速迭代、原型、社交媒体短片,这类场景更看重速度和成本。 - 使用
sora-2-pro:适合生产级导出、1080p 输出以及更高视觉保真度(但要预期更高成本和更长渲染时间)。
对于生产级输出、稳定性更好的高质量成片、高分辨率电影感镜头以及营销素材,Pro 是更好的选择;而标准模型则是更便宜、适合快速试验的方案。
| Scenario | Model | Resolution | Output seconds | Price / sec | Estimated render time (active compute) | Avg queue wait (peak/off-peak) | Estimated end-to-end (queue+render) | Cost |
|---|---|---|---|---|---|---|---|---|
| Social snippet | sora-2 | 720×1280 (720p) | 8 s | $0.10 | ~0.45–1.0 min (est) | 0.5–2 min | ~1–3 min | $0.80 |
| Short ad | sora-2 | 1280×720 (720p) | 20 s | $0.10 | ~1.2 min (est) | 1–3 min | ~2.2–4.2 min | $2.00 |
| High-quality clip | sora-2-pro | 1920×1080 (1080p) | 20 s | $0.30 | ~2.1 min (measured) | ~3.2 min (avg measured) | ~5.3 min | $6.00. |
| Longer stitched video | sora-2-pro | 1080p | 60 s (3×20s assembled) | $0.30 | 3×render (approx) ~6.3 min | total queue (varies) ~~9+ min | ~15+ min | $18.00 |
| Extended narrative (max) | sora-2-pro | 1080p | 120 s (extensions) | $0.30 | ~12–15 min (compute) est | queue × segments | ~20–40+ min | $36.00 |
How we computed estimates: sora-2-pro 的 20 秒 1080p 渲染时间来自独立基准测试:20 秒渲染时间为 2.1 分钟(Sima Labs)。
网页端 vs API:视频时长使用方式的区别
Sora 2 网页应用
最适合:
- 创作者
- 社交媒体内容
- 快速原型设计
典型工作流:
- 生成 10–20 秒片段
- 通过 storyboard 工具拼接
- 导出最终视频
📌 限制:
- 工作流偏手动
- 自动化能力较少
Sora 2 API
最适合:
- 开发者
- 工作室
- 初创公司
典型工作流:
Prompt → Generate clip → Continue → Stitch → Export
📌 优势:
- 自动化流水线
- 批处理
- 可扩展生产
如何通过 CometAPI 使用 Sora 2 API?
以下是通过 CometAPI 使用 Sora 2 的一种实用方式:注册 CometAPI,创建 API token,向 CometAPI 的 Sora 2 端点发送视频生成请求,然后轮询任务直到完成。CometAPI 提供 OpenAI 风格的 REST 访问,它的 Sora 2 页面将模型命名为 sora-2 / sora-2-hd/ sora-2-pro,使用 Bearer YOUR_CometAPI_API_KEY,并将视频请求指向 https://api.cometapi.com/v1/videos.
OpenAI 自家的 Sora API 是异步的:通过 POST /v1/videos 创建视频任务,然后通过 GET /v1/videos/{video_id} 检查进度。OpenAI 还表示,Sora API 支持从提示词、图像参考、可复用角色资产、扩展、编辑、下载以及 Batch API 工作流创建视频。
为什么使用 CometAPI?使用 CometAPI 取决于你是否需要更简单的接入、聚合能力或额外灵活性。使用 CometAPI 的核心原因在于,它可以将多个 AI 模型(例如 Sora 2、文本模型等)统一到一个标准化接口中,让开发者只需一次集成即可灵活切换不同模型,从而避免供应商锁定。同时,它的 API 折扣和 playground 也能显著降低开发成本。
结论
当前官方答案已经很明确:单个 Sora 2 视频片段最长可达 20 秒。对于更长的项目,OpenAI 的扩展工作流支持每次延展最多 20 秒、最多六次扩展,以及最长 120 秒总时长。
开发者现在可以通过 Sora 2 和 Sora 2 Pro 在 CometAPI 上接入(CometAPI 是一个聚合 GPT APIs、Nano Banana APIs 等大模型 API 的一站式平台)。接入前,请确保你已登录 CometAPI 并获取 API key。CometAPI 提供远低于官方价格的定价,帮助你完成集成。
