Developed by OpenAI, Sora 2 represents a major leap in generative media, transforming how developers, enterprises, and creative professionals build video-first applications. Since its release in late 2025, the API ecosystem—including access through third-party providers such as CometAPI—has matured significantly, introducing new capabilities aimed at scalability, realism, and production-grade reliability.
Resumen de las cinco actualizaciones clave
La última actualización de la API de Sora 2 introduce cinco mejoras importantes:
| Característica | Descripción | Impacto |
|---|---|---|
| Consistencia de roles | Identidad de personaje persistente entre escenas | Resuelve problemas de continuidad |
| Duración de video de 20 segundos | Aumentada desde 12 segundos | Permite la narración |
| Generación por lotes | Tareas de video asíncronas | Producción escalable |
| Extensión de video | Extiende clips usando el contexto completo | Mejores flujos de edición |
| Salida multiformato | 1080p + vertical/horizontal | Publicación multiplataforma |
Estas actualizaciones abordan en conjunto tres cuellos de botella centrales en el video con IA:
- Continuidad
- Duración
- Escalabilidad
Qué es Sora 2 y Pro
Sora 2 es un modelo de generación de video con IA de próxima generación lanzado por OpenAI. Puede generar automáticamente videos de alta calidad que contienen imágenes y audio a partir de entradas como texto e imágenes, y es adecuado para el desarrollo de aplicaciones y la producción de contenido a gran escala. Sora 2 Pro es una versión de mayor nivel basada en este, que ofrece mayor resolución, mayor realismo de imagen, mayor duración de video y capacidades de control más precisas. Sin embargo, también tiene costos de cómputo y precio más altos, y está dirigido principalmente a la producción profesional de cine y televisión, creatividad publicitaria y otros escenarios con requisitos de calidad extremadamente altos.
La actualización de marzo de 2026 marca un hito crucial: por primera vez, el video generado por IA no solo es visualmente impresionante, sino también operativamente escalable para los flujos de trabajo empresariales.
1. Consistencia de roles (persistencia de personajes)
Uno de los avances más significativos es la consistencia de personajes, también denominada “consistencia de roles”.
La mayor mejora práctica para muchos equipos es la capacidad de reutilizar recursos de personajes entre generaciones. Puedes subir un sujeto no humano reutilizable y referenciarlo en múltiples videos para mantener uniforme la apariencia, el estilo y la presencia en pantalla. Animales, mascotas y objetos son casos de uso sólidos, y se indica que un solo video puede incluir hasta dos personajes.
Esto es importante porque la “consistencia de roles” ha sido durante mucho tiempo uno de los problemas más difíciles en la producción de video con IA. Una campaña a menudo necesita que la misma mascota, utilería de producto o símbolo visual aparezca en múltiples tomas sin deriva. La actualización de OpenAI reduce la necesidad de reiterar las mismas restricciones de identidad en cada prompt y hace que el modelo sea más útil para la narración episódica, los recursos de marca y la producción creativa basada en plantillas. Esta es una inferencia a partir del nuevo flujo de trabajo de referencia de personajes y la descripción de OpenAI sobre una mayor consistencia visual entre generaciones.
Sin embargo, hay una limitación importante: las cargas de personajes que representen semejanza humana están bloqueadas de forma predeterminada, no se pueden generar personas reales y actualmente se rechazan las imágenes de entrada con rostros humanos. En otras palabras, esta herramienta de consistencia es potente, pero no es una función general de “hacer que cualquier persona se vea idéntica cada vez”. Está optimizada para sujetos no humanos y contenido conforme a las políticas.
Anteriormente, los modelos de video con IA sufrían de deriva visual, donde los personajes cambiaban de forma impredecible entre tomas. El nuevo sistema garantiza la continuidad entre escenas.
Información de rendimiento:
- Consistencia solo con prompt: ~70% de precisión
- Sistema nativo (Sora 2): consistencia del 95%+
Por qué importa:
- Esencial para la narración
- Fundamental para la marca y el marketing
- Permite la producción de contenido episódico
la creación de personajes utiliza un clip MP4 de 2–4 segundos, a 720p–1080p, en 16:9 o 9:16. También indica que los videos fuente de personajes funcionan mejor cuando su relación de aspecto coincide con la salida solicitada, y que un solo video puede incluir hasta dos personajes
2) El límite de 20 segundos supone un cambio real en el flujo de trabajo
La duración máxima de Sora 2 aumentó de 12 a 20 segundos. Son 8 segundos adicionales, o un 66.7% más de tiempo de ejecución que antes. En términos de producción de video, es espacio suficiente para una revelación más larga, una acción adicional o una demostración de producto más completa sin tener que unir varias generaciones de inmediato.
Casos de uso:
- Anuncios en redes sociales (15–20 s óptimos)
- Secuencias cortas de narración
- Demostraciones de producto
Contexto técnico:
Los videos más largos requieren:
- Mejor coherencia temporal
- Mejor manejo de memoria
- Coordinación avanzada de difusión + transformer
3) Salida multiformato y resolución
La última API de Sora está claramente diseñada para los canales de distribución modernos. La documentación de OpenAI dice que sora-2-pro debe usarse cuando necesitas exportaciones en 1080p en 1920×1080 o 1080×1920, y la guía de personajes indica que los clips de origen funcionan mejor en 16:9 o 9:16. Eso encaja perfectamente con YouTube, páginas de destino, presentaciones, TikTok, Reels, Shorts y ubicaciones publicitarias verticales.
Por qué esto importa:
- El video vertical domina plataformas como TikTok/Reels
- Elimina la necesidad de posprocesamiento
📈 Mejora de calidad:
- Salida 1080p de nivel profesional
- Adecuada para uso comercial
4) Las extensiones de video hacen que la narración larga sea más fluida
La actualización también agrega extensiones de video, que OpenAI describe como una forma de continuar un clip completado y crear un nuevo resultado unido. El flujo de trabajo de extensión usa el clip fuente completo como contexto, no solo el último fotograma, lo cual es especialmente importante para preservar el movimiento, la dirección de cámara y la continuidad de la escena.
Esta es una diferencia sutil pero importante respecto a una simple continuación basada en fotogramas. Si el modelo ve el clip fuente completo, puede preservar mejor el ritmo y el movimiento entre segmentos. Eso debería facilitar la construcción de escenas que se sientan como un solo plano continuo, en lugar de salidas débilmente conectadas. Esta es una inferencia basada en la explicación de OpenAI de que las extensiones usan el clip inicial completo como contexto y están diseñadas para preservar el movimiento y la continuidad.
OpenAI también dice que cada extensión puede añadir hasta 20 segundos, un solo video puede extenderse hasta seis veces y la longitud máxima total puede alcanzar los 120 segundos. Sin embargo, las extensiones actualmente aceptan solo un video fuente y un prompt, y no admiten personajes ni referencias de imagen. Esto crea un límite claro: las extensiones son para continuidad, mientras que las referencias de personajes son para identidad reutilizable.
Beneficios clave:
- Mantener la continuidad de la escena
- Extender narrativas de forma natural
- Evitar transiciones bruscas
Diferencia frente a modelos anteriores:
- Modelos antiguos: usaban solo el último fotograma
- Sora 2: usa el contexto del clip completo
5) La generación por lotes es la mayor mejora de escalado
El soporte de la API Batch es la actualización que probablemente más importe a los equipos de producción. OpenAI dice que la API Batch puede usarse para enviar grandes colas de renderizado offline, y su documentación indica que se adapta a listas de tomas, colas de renderizado programadas, flujos de revisión y flujos de trabajo de estudio. En la guía específica de video para Batch, OpenAI dice que Batch actualmente admite POST /v1/videos únicamente, las solicitudes deben usar JSON en lugar de multipart, los recursos deben cargarse por adelantado y input_reference debe proporcionarse en el cuerpo de la solicitud JSON.
También hay un incentivo de costos real. OpenAI dice que la API Batch ahorra 50% en entradas y salidas y ejecuta tareas de forma asíncrona durante 24 horas. En la página de precios, la tarifa estándar de sora-2-pro 1080p es de $0.70 por segundo, mientras que el precio de Batch para el mismo nivel es de $0.35 por segundo. Eso significa que un clip de 20 segundos en 1080p costaría alrededor de $14.00 al precio estándar y alrededor de $7.00 mediante Batch, antes de cualquier otro costo de flujo de trabajo. Esa comparación es un cálculo directo basado en los precios publicados por OpenAI.
Para equipos que producen muchos clips a la vez, esto puede cambiar la economía de la experimentación. En lugar de pagar el precio completo por cada renderizado, los equipos pueden poner en cola un gran volumen de variaciones durante la noche y revisar las mejores salidas al día siguiente. Ese es exactamente el tipo de flujo de trabajo para el que se creó Batch, y la propia guía de límites de tasa de OpenAI confirma que los trabajos de Batch se contabilizan de manera diferente a las solicitudes en línea estándar.
Conclusión
Tomadas en conjunto, estas cinco actualizaciones hacen que Sora 2 se sienta menos como un generador novedoso y más como una plataforma de producción. Las referencias de personajes reutilizables mejoran la consistencia. Los clips de 20 segundos reducen la necesidad de ensamblaje. Las exportaciones 1080p hacen que el nivel premium sea práctico para entregables pulidos. Las extensiones de video mejoran la continuidad. La generación por lotes añade escala y eficiencia de costos.
Los desarrolladores pueden acceder a Sora 2 y Sora 2 Pro a través de CometAPI (CometAPI es una plataforma integral de agregación de APIs de modelos grandes como GPT APIs, Nano Banana APIs, etc.) ahora. Antes de acceder, asegúrate de haber iniciado sesión en CometAPI y obtenido la clave de API. CometAPI ofrece un precio muy inferior al oficial para ayudarte a integrar.
