Najnowsze aktualizacje Sora od OpenAI przesunęły produkt z poziomu ciekawostki — generatora wideo — w stronę znacznie poważniejszej platformy dla twórców i deweloperów. Najnowsze oficjalne materiały pokazują trzy duże zmiany: Sora 1 została wycofana w Stanach Zjednoczonych, Sora 2 jest tam teraz domyślnym środowiskiem Sora, a API rozszerzono o dłuższe generacje, wielokrotnego użytku referencje postaci, rozszerzenia wideo oraz obsługę zadań wsadowych.
Sora 2 w oficjalnym API OpenAI i edytorze Sora Video Editor może obecnie generować klipy o długości do 20 sekund każdy. OpenAI obsługuje także rozszerzenia wideo do 20 sekund każde, z maksymalnie sześcioma rozszerzeniami, co daje łączną zszytą długość do 120 sekund. W przypadku API Sora 2 CometAPI obsługuje 20 s i 2K.
Czym jest Sora 2 i dlaczego długość ma znaczenie
Sora 2 to model drugiej generacji OpenAI do generowania wideo + audio oraz główny silnik w aplikacji Sora i internetowym kompozytorze. Został publicznie ogłoszony jako flagowy model generowania wideo pod koniec 2025 roku, ze szczególnym naciskiem na realizm fizyczny, zsynchronizowane dialogi i efekty dźwiękowe oraz większą kontrolę nad scenami. Wdrażaniu modelu towarzyszyły aktualizacje aplikacji (iOS → Android) oraz dodanie funkcji takich jak storyboards, które pomagają planować sekwencje wieloujęciowe.
W przeciwieństwie do wcześniejszych systemów Sora 2 obejmuje:
- Zaawansowane rozumowanie przestrzenne (rozumienie środowisk 3D)
- Spójność czasową między klatkami
- Ciągłość postaci i obiektów
- Zsynchronizowane audio (dialogi + efekty dźwiękowe)
Umożliwia to generowanie sekwencji o jakości kinowej, a nie prostych animowanych klipów.
Kluczowe ulepszenia technologiczne względem Sora 1
| Funkcja | Sora 1 | Sora 2 |
|---|---|---|
| Długość wideo | ~6–10 sekund | Do 25 sekund |
| Złożoność scen | Ograniczona | Obsługa wielu scen |
| Audio | Minimalne | Zsynchronizowane audio |
| Sterowanie | Podstawowe prompty | Storyboards, sterowanie strukturalne |
Sora 2 oznacza przejście od „generowania klipów” do „konstruowania scen”, umożliwiając bardziej znaczące opowiadanie historii i komercyjne zastosowania, takie jak reklama, prezentacje produktów i filmy krótkometrażowe.
Dokładne limity długości filmów Sora 2 (web vs API)
Jak długi może być obecnie pojedynczy klip Sora 2?
Obecna oficjalna odpowiedź jest prosta: 20 sekund na pojedynczy wygenerowany klip. Przewodnik po API OpenAI stwierdza: „Generate videos up to 20 seconds”, a centrum pomocy Sora podaje, że Sora Video Editor może generować filmy „up to 20 seconds long”, przy zachowaniu jakości wizualnej i zgodności z promptem.
Jak długie mogą być filmy Sora 2 w wersji webowej?
Najnowsze informacje o wydaniu Sora od OpenAI mówią, że wszyscy użytkownicy mogą teraz generować 15-sekundowe filmy w aplikacji i w webie, oprócz domyślnego limitu 10 sekund, natomiast użytkownicy Pro mogą generować 25-sekundowe filmy w webie z użyciem storyboardu. Te same informacje o wydaniu podają również, że filmy 15-sekundowe liczą się jako dwa filmy względem limitów dziennych, a 25-sekundowe jako cztery.
Istnieje także jakościowa różnica między standardowym kompozytorem a trybem storyboard. Storyboardy pozwalają użytkownikom szkicować film sekunda po sekundzie, a użytkownicy Pro mogą tworzyć w webie 25-sekundowe filmy z użyciem storyboardu. Zszyte filmy mogą osiągać łącznie do 60 sekund, co oznacza, że dłuższe materiały są możliwe, jeśli buduje się je z wielu klipów, a nie jako jedną ciągłą generację.
Doświadczenie webowe najlepiej więc rozumieć jako system warstwowy: krótkie generacje domyślne do szybkich iteracji, dłuższe klipy do bardziej ambitnych scen oraz storyboard lub zszywanie, gdy projekt wymaga ciągłości narracyjnej. W skrócie w stylu newsroomowym najważniejsza aktualizacja jest taka, że OpenAI już wyszło poza dawny limit 10 sekund i pozwala teraz użytkownikom pracować bezpośrednio w interfejsie Sora z zauważalnie dłuższymi klipami.
Tworzenie wideo w aplikacji Sora korzysta z ruchomego limitu 24-godzinnego na konto, a nie resetu o północy, więc każde zgłoszenie jest liczone natychmiast i wypada z limitu dopiero po opuszczeniu 24-godzinnego okna.
Jak długie mogą być filmy Sora 2 przez API?
API jest bardziej szczegółowe niż aplikacja webowa. Od marca 2026 obsługiwane wartości seconds to 4, 8, 12, 16 i 20, z domyślną wartością 4 sekundy. Ten sam przewodnik mówi, że najnowsza aktualizacja zwiększyła maksymalny czas trwania z 12 do 20 sekund, co jest znaczącym rozszerzeniem dla deweloperów budujących rozwiązania wokół generowania krótkich form.
Zarówno sora-2, jak i sora-2-pro obsługują generacje 16- i 20-sekundowe, a API jest asynchroniczne: żądanie POST /v1/videos zwraca obiekt zadania, a deweloperzy mogą odpytywać GET /videos/{video_id} lub używać webhooków do śledzenia zakończenia. Oznacza to, że API zaprojektowano z myślą o uporządkowanych workflow produkcyjnych, a nie prostym generowaniu jednym kliknięciem.
Istnieje drugi poziom kontroli długości poprzez rozszerzenia. Każde rozszerzenie może dodać do 20 sekund, pojedyncze wideo można rozszerzyć maksymalnie sześć razy, a całkowita długość może osiągnąć 120 sekund. Rozszerzenia zachowują ruch, kierunek kamery i ciągłość sceny, co czyni je użytecznymi, gdy jeden klip ma stać się dłuższą sekwencją bez utraty pierwotnej logiki wizualnej.
API obsługuje referencje postaci wielokrotnego użytku przez POST /v1/videos/characters, edycję wideo przez POST /v1/videos/{video_id}/edits oraz generowanie przez POST /v1/videos. Innymi słowy, obecne API Sora nie jest już tylko „tekst na wejściu, wideo na wyjściu”; przekształca się w kompaktowy pipeline kreatywny z postaciami, rozszerzeniami, edycjami i zadaniami wsadowymi.
Limity długości Sora 2 według trybu
| Tryb / funkcja | Oficjalny limit długości | Uwagi |
|---|---|---|
| Bazowe generowanie Sora 2 | Do 20 sekund | Aktualny oficjalny limit API i edytora Sora |
| Rozszerzenia wideo | Do 20 sekund na rozszerzenie | Dodaje nowy segment, używając pełnego klipu źródłowego jako kontekstu |
| Łączna długość zszytego wideo | Do 120 sekund | Maksymalnie sześć rozszerzeń |
| Poziom rozdzielczości sora-2-pro | Obsługiwane wyjście 1080p | Dostępne dla eksportów 1920×1080 i 1080×1920 |
| Opóźnienie renderowania | Dłuższe dla dłuższych klipów i 1080p | OpenAI twierdzi, że te zadania mogą trwać zauważalnie dłużej |
Dlaczego czasy tak bardzo się różnią:
- Wariant modelu (
sora-2vssora-2-pro) — Pro oferuje wyższą jakość, ale często jest wolniejszy i droższy. - Rozdzielczość i liczba klatek — 1080p trwa dłużej niż 720p/480p.
- Złożoność sceny — fizyka, postacie, złożoność ruchu i generowanie audio zwiększają zapotrzebowanie obliczeniowe. Benchmarki pokazują, że niektóre klasy scen (dużo fizyki, animacja postaci) wydłużają czasy renderowania.
- Obciążenie serwerów / współbieżność — czasy kolejkowania rosną przy szczytowym użyciu lub gdy z Twojego konta/regionu wysyłanych jest wiele ciężkich zadań.
Dlaczego Sora 2 ogranicza filmy do ~20 sekund
1. Ograniczenia obliczeniowe i skalowanie kosztów
Generowanie wideo jest wykładniczo droższe niż obrazów.
- 10-sekundowy klip HD może kosztować ~5 USD (poziom pro)
- Koszt skaluje się na sekundę, a nie na klip
- Dłuższe filmy = większe opóźnienia i większe zapotrzebowanie na GPU
👉 Dlatego:
- OpenAI ogranicza domyślne klipy do 20 sekund
- Zachęca do modułowych workflow generowania
2. Wyzwania związane ze spójnością czasową
Utrzymanie realizmu w czasie jest trudne:
- Dryf ruchu
- Niespójność postaci
- Załamanie fizyki
Krótkie klipy pozwalają na:
- Lepszą spójność klatek
- Silniejsze trzymanie się promptu
- Wyższą wierność wizualną
3. Opóźnienie i doświadczenie użytkownika
Zgodnie z wytycznymi API:
- Dłuższe klipy „take materially longer to complete”
W rzeczywistych aplikacjach:
- Klipy 5–10 s → szybka iteracja
- Klipy 20 s → ujęcia jakości produkcyjnej
Jak tworzyć filmy dłuższe niż pojedyncza generacja Sora 2
- Użyj najdłuższego dostępnego pojedynczego klipu, a następnie połącz klipy razem. OpenAI podaje, że generacje wideo Sora mogą trwać do 20 sekund w dokumentacji API/pomocy, a aplikacja Sora obsługuje zszyte filmy o łącznej długości do 60 sekund, z użyciem dowolnej kombinacji długości klipów.
- Zbuduj to jako storyboard zamiast jednego długiego ujęcia. Tryb Storyboard w OpenAI pozwala szkicować wideo sekunda po sekundzie, co jest najczystszym sposobem zaprojektowania dłuższej sekwencji jako łańcucha krótszych fragmentów.
- Użyj wbudowanych narzędzi kontynuacji na istniejącym klipie. W Sora Re-cut otwiera wygenerowane wideo w nowym storyboardzie, aby można je było przyciąć lub rozszerzyć; Remix tworzy nową wersję z istniejącej generacji; Blend przechodzi między dwoma filmami; a Loop tworzy płynne zapętlenie z części klipu. To natywne workflow, które OpenAI dokumentuje do rozszerzania materiału poza jedną generację.
W praktyce najczystsze podejście wygląda tak: twórz sceny 10–20-sekundowe, używaj Storyboard/Re-cut do ich łączenia, a następnie zszywaj gotowe klipy w dłuższą sekwencję.
Ile kosztuje tworzenie filmów w Sora 2?
Sora 2 Web:
Generowanie wideo w Sora 2 kosztuje 10 kredytów za 10-sekundowy film, 20 kredytów za 15 sekund i 30 kredytów za 25 sekund w generowaniu webowym dostępnym tylko dla Pro. W przypadku Sora 2 Pro filmy w standardowej rozdzielczości kosztują 40 kredytów za 10 sekund, 80 kredytów za 15 sekund i 120 kredytów za 25 sekund, natomiast filmy w wysokiej rozdzielczości kosztują 250 kredytów za 10 sekund i 500 kredytów za 15 sekund. OpenAI zauważa również, że liczba kredytów na film różni się w zależności od długości, rozdzielczości i innych czynników, a dłuższe filmy mogą kosztować więcej kredytów na sekundę, ponieważ wymagają większej mocy obliczeniowej.
Po stronie API
OpenAI publikuje teraz ceny za sekundę. Standardowa stawka sora-2 wynosi 0,10 USD za sekundę przy 720p, natomiast sora-2-pro kosztuje 0,30 USD za sekundę przy 720p, 0,50 USD za sekundę przy 1024p i 0,70 USD za sekundę przy 1080p. Ceny wsadowe są obniżone o połowę na tych samych poziomach.
CometAPI oferuje 20% zniżki na API Sora 2:
| Nazwa modelu | Orientacja | Rozdzielczość | Cena |
|---|---|---|---|
| sora-2-pro | Pionowa | 720x1280 | $0.24 / sec |
| sora-2-pro | Pozioma | 1280x720 | $0.24 / sec |
| sora-2-pro | Pionowa (High Res) | 1024x1792 | $0.40 / sec |
| sora-2-pro | Pozioma (High Res) | 1792x1024 | $0.40 / sec |
| sora-2 | Pionowa | 720x1280 | $0.08 / sec |
| sora-2 | Pozioma | 1280x720 | $0.08 / sec |
Szacowany koszt rzeczywistego zadania
Kiedy wybrać sora-2 vs sora-2-pro
- Użyj
sora-2do szybkich iteracji, prototypów i klipów społecznościowych, gdzie liczą się szybkość i koszt. - Użyj
sora-2-prodo eksportów produkcyjnych, wyjścia 1080p i wyższej jakości wizualnej (ale spodziewaj się wyższych kosztów i dłuższych czasów renderowania).
Pro to lepszy wybór do materiałów jakości produkcyjnej, dopracowanej stabilności, wysokorozdzielczych kinowych ujęć i zasobów marketingowych, podczas gdy model standardowy jest tańszą drogą do szybszych eksperymentów.
| Scenariusz | Model | Rozdzielczość | Sekundy wyjściowe | Cena / sek | Szacowany czas renderowania (aktywne obliczenia) | Średni czas oczekiwania w kolejce (szczyt/poza szczytem) | Szacowany czas end-to-end (kolejka+render) | Koszt |
|---|---|---|---|---|---|---|---|---|
| Krótki klip społecznościowy | sora-2 | 720×1280 (720p) | 8 s | $0.10 | ~0.45–1.0 min (est) | 0.5–2 min | ~1–3 min | $0.80 |
| Krótka reklama | sora-2 | 1280×720 (720p) | 20 s | $0.10 | ~1.2 min (est) | 1–3 min | ~2.2–4.2 min | $2.00 |
| Klip wysokiej jakości | sora-2-pro | 1920×1080 (1080p) | 20 s | $0.30 | ~2.1 min (measured) | ~3.2 min (avg measured) | ~5.3 min | $6.00. |
| Dłuższe zszyte wideo | sora-2-pro | 1080p | 60 s (3×20s assembled) | $0.30 | 3×render (approx) ~6.3 min | total queue (varies) ~~9+ min | ~15+ min | $18.00 |
| Rozszerzona narracja (max) | sora-2-pro | 1080p | 120 s (extensions) | $0.30 | ~12–15 min (compute) est | queue × segments | ~20–40+ min | $36.00 |
Jak obliczyliśmy szacunki: czas renderowania sora-2-pro 20 s 1080p pochodzi z niezależnych benchmarków: 2.1 minutes render time for 20s (Sima Labs).
Web vs API: różnice w użyciu długości wideo
Aplikacja webowa Sora 2
Najlepsza dla:
- Twórców
- Treści do mediów społecznościowych
- Szybkiego prototypowania
Typowy workflow:
- Wygeneruj klip 10–20 s
- Zszyj przez narzędzie storyboard
- Wyeksportuj gotowe wideo
📌 Ograniczenia:
- Workflow ręczny
- Mniejsza automatyzacja
API Sora 2
Najlepsze dla:
- Deweloperów
- Studiów
- Startupów
Typowy workflow:
Prompt → Generate clip → Continue → Stitch → Export
📌 Zalety:
- Zautomatyzowane pipeline’y
- Przetwarzanie wsadowe
- Skalowalna produkcja
Jak używać API Sora 2 przez CometAPI?
Oto praktyczny sposób korzystania z Sora 2 przez CometAPI: zarejestruj się w CometAPI, utwórz token API, wyślij żądanie generowania wideo do endpointu Sora 2 w CometAPI, a następnie odpytywaj zadanie, aż się zakończy. CometAPI zapewnia dostęp REST w stylu OpenAI, na swojej stronie Sora 2 podaje nazwę modelu jako sora-2 / sora-2-hd/ sora-2-pro, używa Bearer YOUR_CometAPI_API_KEY i kieruje żądania wideo pod adres https://api.cometapi.com/v1/videos.
Własne API Sora od OpenAI jest asynchroniczne: utwórz zadanie wideo przez POST /v1/videos, a następnie sprawdzaj postęp przez GET /v1/videos/{video_id}. OpenAI podaje też, że API Sora obsługuje tworzenie wideo z promptów, referencji obrazów, zasobów postaci wielokrotnego użytku, rozszerzeń, edycji, pobrań oraz workflow z Batch API.
dlaczego warto używać CometAPI? Korzystanie z CometAPI zależy od prostszego dostępu, agregacji lub większej elastyczności. Głównym powodem korzystania z CometAPI jest to, że może ujednolicić wiele modeli AI (takich jak Sora 2, modele tekstowe itd.) w jednym standaryzowanym interfejsie, umożliwiając deweloperom elastyczne przełączanie się między różnymi modelami przy jednej tylko integracji i unikanie uzależnienia od jednego dostawcy. Jednocześnie zniżki na wywołania API i playground mogą znacząco obniżyć koszty deweloperskie.
Podsumowanie
Obecna oficjalna odpowiedź jest jasna: pojedynczy klip wideo Sora 2 może mieć długość do 20 sekund. W przypadku dłuższych projektów workflow rozszerzeń OpenAI pozwala na do 20 sekund na jedno rozszerzenie, do sześciu rozszerzeń i łącznie do 120 sekund.
Deweloperzy mogą teraz uzyskać dostęp do Sora 2 i Sora 2 Pro przez CometAPI(CometAPI is a one-stop aggregation platform for large model APIs such as GPT APIs, Nano Banana APIs etc). Przed rozpoczęciem korzystania upewnij się, że zalogowano się do CometAPI i uzyskano klucz API. CometAPI oferuje cenę znacznie niższą niż oficjalna, aby ułatwić integrację.
