OpenAI最新的 Sora 更新,已经将这款产品从一个新奇的视频生成器,推进为一个更严肃的创作者与开发者平台。最新的官方资料显示出三项重大变化:Sora 1 已在美国退役,Sora 2 已成为当地默认的 Sora 体验,而 API 也已扩展,支持更长时长的生成、可复用角色参考、视频扩展以及批处理支持。
Sora 2 视频目前在 OpenAI 官方 API 和 Sora 视频编辑器中,单个生成片段最长可达 20 秒。 OpenAI 还支持 每次最长 20 秒的视频扩展,最多可进行 六次扩展,因此 拼接后的总时长最多可达 120 秒。对于 Sora 2 API,CometAPI 支持 20 秒和 2K。
什么是 Sora 2,为什么时长很重要
Sora 2 是 OpenAI 的第二代视频 + 音频生成模型,也是 Sora 应用和网页版创作器中的核心引擎。它于 2025 年底作为旗舰视频生成模型公开发布,重点特性包括物理真实感、同步对白与音效,以及对场景更高程度的控制。伴随该模型的推出,还有应用更新(iOS → Android)以及如 storyboards 之类的功能新增,用于帮助规划多镜头序列。
与早期系统不同,Sora 2 融合了:
- 高级空间推理(理解 3D 环境)
- 跨帧时间一致性
- 角色与物体连续性
- 同步音频(对白 + 音效)
这使其能够生成具有电影质感的序列,而不只是简单的动画片段。
相较于 Sora 1 的关键技术提升
| Feature | Sora 1 | Sora 2 |
|---|---|---|
| Video length | ~6–10 秒 | 最长 25 秒 |
| Scene complexity | 有限 | 支持多场景 |
| Audio | 很少 | 同步音频 |
| Control | 基础提示词 | Storyboards、结构化控制 |
Sora 2 代表着从 “片段生成”到“场景构建” 的转变,从而支持更有意义的叙事以及广告、产品演示和短片等商业用例。
Sora 2 视频的精确时长限制(Web 与 API)
单个 Sora 2 片段目前能有多长?
当前官方答案很简单:单个生成片段为 20 秒。OpenAI 的 API 指南写道:“Generate videos up to 20 seconds”,而 Sora 帮助中心也表示,Sora 视频编辑器可以生成“最长 20 秒”的视频,同时保持视觉质量与提示词遵循度。
在网页端,Sora 2 视频可以有多长?
OpenAI 最新的 Sora 发布说明指出,所有用户现在都可以在应用和网页上生成 15 秒视频,除了默认的 10 秒之外;而 Pro 用户则可以通过 storyboard 在网页上生成 25 秒视频。同一份发布说明还提到,15 秒视频按每日额度中的两个视频计算,25 秒视频则按四个视频计算。
标准创作器与 storyboard 模式之间也存在定性差异。Storyboards 允许用户按秒勾勒视频,而 Pro 用户可以在网页上借助 storyboard 制作 25 秒视频。拼接视频的总时长最高可达 60 秒,这意味着如果将多个片段组合起来,而不是只做一次连续生成,就能实现更长的视频。
因此,网页端体验最好理解为一个分层系统:默认的短视频生成用于快速迭代,更长片段用于更有野心的场景,而 storyboard 或拼接则适用于需要叙事连续性的项目。用新闻摘要的方式来说,关键更新在于:OpenAI 已经超越了过去 10 秒的上限,现在允许用户直接在 Sora 界面中处理明显更长的片段。
Sora 应用中的视频创建采用按账户滚动计算的 24 小时限制,而不是午夜重置,因此每次提交都会立即计入,只有在离开该 24 小时时间窗口后才会失效。
通过 API,Sora 2 视频可以有多长?
API 比网页应用更细化。自 2026 年 3 月起,支持的 seconds 值为 4、8、12、16 和 20,默认值为 4 秒。同一份指南还指出,最新更新已将最长时长从 12 秒提升到 20 秒,这对于围绕短视频生成构建应用的开发者来说,是一次很有意义的扩展。
sora-2 和 sora-2-pro 都支持 16 秒和 20 秒生成,而且 API 是异步的:POST /v1/videos 请求会返回一个任务对象,开发者可以轮询 GET /videos/{video_id},或使用 webhook 跟踪完成状态。这意味着,该 API 是为结构化生产工作流设计的,而不是简单的一键式生成。
时长控制还有第二层,即扩展功能。每次扩展最多可增加 20 秒,单个视频最多可扩展六次,总时长最高可达 120 秒。扩展会保留运动、镜头方向和场景连续性,因此当某个片段需要延展为更长序列,同时又不能丢失原有视觉逻辑时,这项功能就非常有用。
API 支持通过 POST /v1/videos/characters 使用可复用角色参考,通过 POST /v1/videos/{video_id}/edits 进行视频编辑,并通过 POST /v1/videos 进行生成。换句话说,当前的 Sora API 已不再只是“输入文本,输出视频”;它正在演变为一个紧凑的创意流水线,包含角色、扩展、编辑和批处理任务。
按模式划分的 Sora 2 时长限制
| Mode / feature | Official length limit | Notes |
|---|---|---|
| Base Sora 2 generation | 最长 20 秒 | 当前官方 API 和 Sora 编辑器限制 |
| Video extensions | 每次扩展最长 20 秒 | 以完整源片段作为上下文添加新片段 |
| Total stitched video length | 最长 120 秒 | 最多六次扩展 |
| sora-2-pro resolution tier | 支持 1080p 输出 | 可用于 1920×1080 和 1080×1920 导出 |
| Render latency | 更长片段和 1080p 用时更久 | OpenAI 表示这些任务可能需要明显更长时间 |
时长差异如此之大的原因:
- 模型变体(
sora-2vssora-2-pro)—— Pro 版本保真度更高,通常也更慢、成本更高。 - 分辨率与帧数—— 1080p 比 720p/480p 花费更长时间。
- 场景复杂度—— 物理效果、角色、运动复杂度以及音频生成都会提高算力需求。基准测试表明,某些场景类型(重物理、角色动画)会增加渲染时间。
- 服务器负载 / 并发—— 在高峰时段,或者你的账户/地区提交了许多高负载任务时,排队时间会上升。
为什么 Sora 2 将视频限制在 ~20 秒左右
1. 计算约束与成本增长
视频生成的成本比图像高得多。
- 一个 10 秒的高清片段可能花费 ~$5(pro 档)
- 成本按 每秒 增长,而不是按每个片段
- 视频越长,延迟越高,对 GPU 的需求越大
👉 这就是为什么:
- OpenAI 将默认片段限制在 20 秒
- 鼓励使用 模块化生成工作流
2. 时间一致性挑战
随着时间推移,要保持真实感非常困难:
- 动作漂移
- 角色不一致
- 物理效果崩坏
短片段可以实现:
- 更好的 帧一致性
- 更强的 提示词遵循度
- 更高的 视觉保真度
3. 延迟与用户体验
根据 API 指南:
- 更长片段 “take materially longer to complete”
在真实应用中:
- 5–10 秒片段 → 快速迭代
- 20 秒片段 → 具备生产质量的镜头
如何制作超过单次 Sora 2 生成时长的视频
- 使用可用的最长单个片段,然后将多个片段拼接起来。 OpenAI 表示,Sora 视频生成在 API/帮助文档中最长可达 20 秒,而 Sora 应用支持 总长最高 60 秒的拼接视频,可使用任意片段长度组合。
- 把它构建为 storyboard,而不是一个超长镜头。 OpenAI 的 Storyboard 模式允许你逐秒勾勒视频,这是将更长序列设计为多个短节拍链条的最干净方式。
- 使用现有片段上的内置续接工具。 在 Sora 中,Re-cut 会在新的 storyboard 中打开一个已生成视频,以便你裁剪或扩展它;Remix 会基于已有生成结果制作新版本;Blend 用于在两个视频之间过渡;Loop 则会从片段的一部分创建无缝循环。这些都是 OpenAI 文档中说明的、将作品扩展到单次生成之外的原生工作流。
在实践中,最干净的方法是:先制作 10–20 秒场景,用 Storyboard/Re-cut 将它们连接起来,然后把完成的片段拼接成更长序列。
使用 Sora 2 制作视频要花多少钱?
Sora 2 Web:
Sora 2 网页端视频生成的费用为:10 秒视频 10 积分,15 秒 20 积分,25 秒(仅限 Pro 网页生成)30 积分。对于 Sora 2 Pro,标准分辨率视频的费用为 10 秒 40 积分、15 秒 80 积分、25 秒 120 积分;高分辨率视频则为 10 秒 250 积分、15 秒 500 积分。OpenAI 还指出,每个视频所需积分会因时长、分辨率和其他因素而变化,而且更长的视频每秒所需积分可能更高,因为它们需要更多算力。
API 端
OpenAI 现在公布了按秒计费。标准 sora-2 在 720p 下的价格为每秒 $0.10,而 sora-2-pro 在 720p 下为每秒 $0.30,在 1024p 下为每秒 $0.50,在 1080p 下为每秒 $0.70。批处理价格在相同档位上可享半价优惠。
CometAPI 为 Sora 2 API 提供 20% 折扣:
| Model Name | Orientation | Resolution | Price |
|---|---|---|---|
| sora-2-pro | 竖屏 | 720x1280 | $0.24 / sec |
| sora-2-pro | 横屏 | 1280x720 | $0.24 / sec |
| sora-2-pro | 竖屏(高分辨率) | 1024x1792 | $0.40 / sec |
| sora-2-pro | 横屏(高分辨率) | 1792x1024 | $0.40 / sec |
| sora-2 | 竖屏 | 720x1280 | $0.08 / sec |
| sora-2 | 横屏 | 1280x720 | $0.08 / sec |
实际任务的预估成本
何时选择 sora-2,何时选择 sora-2-pro
- 使用
sora-2适合快速迭代、原型制作、社交媒体短片等对速度和成本更敏感的场景。 - 使用
sora-2-pro适合正式成片导出、1080p 输出和更高视觉保真度的需求(但要预期更高成本和更长渲染时间)。
对于高质量成片、稳定性更强的成品、高分辨率电影感素材和营销资产,Pro 是更好的选择;而标准模型则是在更快实验中更便宜的路径。
| Scenario | Model | Resolution | Output seconds | Price / sec | Estimated render time (active compute) | Avg queue wait (peak/off-peak) | Estimated end-to-end (queue+render) | Cost |
|---|---|---|---|---|---|---|---|---|
| 社交短片 | sora-2 | 720×1280 (720p) | 8 秒 | $0.10 | ~0.45–1.0 分钟(估算) | 0.5–2 分钟 | ~1–3 分钟 | $0.80 |
| 短广告 | sora-2 | 1280×720 (720p) | 20 秒 | $0.10 | ~1.2 分钟(估算) | 1–3 分钟 | ~2.2–4.2 分钟 | $2.00 |
| 高质量片段 | sora-2-pro | 1920×1080 (1080p) | 20 秒 | $0.30 | ~2.1 分钟(实测) | ~3.2 分钟(平均实测) | ~5.3 分钟 | $6.00. |
| 更长的拼接视频 | sora-2-pro | 1080p | 60 秒(3×20 秒拼接) | $0.30 | 3×渲染(约)~6.3 分钟 | 总排队时间(变化较大)~~9+ 分钟 | ~15+ 分钟 | $18.00 |
| 扩展叙事(最大) | sora-2-pro | 1080p | 120 秒(扩展) | $0.30 | ~12–15 分钟(计算)估算 | 排队 × 分段 | ~20–40+ 分钟 | $36.00 |
估算方法: sora-2-pro 的 20 秒 1080p 渲染时间来自独立基准测试:20 秒约 2.1 分钟渲染时间(Sima Labs)。
Web 与 API:视频时长使用上的差异
Sora 2 Web App
最适合:
- 创作者
- 社交媒体内容
- 快速原型制作
典型工作流:
- 生成 10–20 秒片段
- 通过 storyboard 工具拼接
- 导出最终视频
📌 限制:
- 手动工作流
- 自动化程度较低
Sora 2 API
最适合:
- 开发者
- 工作室
- 初创公司
典型工作流:
Prompt → Generate clip → Continue → Stitch → Export
📌 优势:
- 自动化流水线
- 批处理
- 可扩展生产
如何通过 CometAPI 使用 Sora 2 API?
一个实用的方式是通过 CometAPI 使用 Sora 2:注册 CometAPI,创建 API token,向 CometAPI 的 Sora 2 端点发送视频生成请求,然后轮询任务直到完成。CometAPI 提供 OpenAI 风格的 REST 访问,其 Sora 2 页面将模型命名为 sora-2 / sora-2-hd / sora-2-pro,使用 Bearer YOUR_CometAPI_API_KEY,并将视频请求指向 https://api.cometapi.com/v1/videos.
OpenAI 自有的 Sora API 是异步的:通过 POST /v1/videos 创建视频任务,然后通过 GET /v1/videos/{video_id} 检查进度。OpenAI 还表示,Sora API 支持从提示词、图片参考、可复用角色资产、扩展、编辑、下载以及 Batch API 工作流创建视频。
为什么使用 CometAPI?使用 CometAPI 取决于你是否需要更简单的接入、聚合能力或额外灵活性。使用 CometAPI 的核心原因在于,它可以将多种 AI 模型(如 Sora 2、文本模型等)统一到一个标准化接口中,让开发者只需一次集成就能灵活切换不同模型,避免供应商锁定。同时,它的 API 调用折扣和 playground 也能显著降低开发成本。
结论
当前官方答案很明确:单个 Sora 2 视频片段最长可达 20 秒。对于更长项目,OpenAI 的扩展工作流允许 每次扩展最长 20 秒、最多六次扩展,以及 总时长最长 120 秒。
开发者现在可以通过 Sora 2 和 Sora 2 Pro 在 CometAPI 上接入服务(CometAPI 是一个聚合 GPT APIs、Nano Banana APIs 等大模型 API 的一站式平台)。在接入之前,请确保你已经登录 CometAPI 并获取 API key。CometAPI 提供远低于官方价格的方案,帮助你完成集成。
