Comment Sora est-il entraîné ?

CometAPI
AnnaMay 12, 2025
Comment Sora est-il entraîné ?

Modèle de génération vidéo d'OpenAI Sora représente une avancée significative dans l'IA générative, permettant la synthèse de vidéos Full HD à partir de simples messages textuels. Depuis son lancement en février 2024, Sora suscite l'enthousiasme pour son potentiel créatif et suscite des inquiétudes quant à ses implications éthiques et juridiques. Vous trouverez ci-dessous une analyse complète de comment Sora est entraîné, en s’appuyant sur les derniers rapports et informations techniques.

Qu’est-ce que Sora ?

Sora est le convertisseur texte-vidéo pionnier d'OpenAI, qui génère des clips vidéo réalistes et haute résolution à partir de brèves descriptions textuelles. Contrairement aux modèles précédents, limités à quelques secondes de séquences basse résolution, Sora peut produire des vidéos d'une durée maximale d'une minute en résolution Full HD (1 × 1920), avec des mouvements fluides et des scènes détaillées.

Quelles capacités offre Sora ?

  • Génération de vidéos basées sur du texte:Les utilisateurs saisissent une invite (par exemple, « une chute de neige sereine dans un parc de Tokyo ») et Sora génère un clip vidéo correspondant à cette description.
  • Édition et extension: Sora peut étendre les vidéos existantes, remplir les images manquantes et modifier la direction ou le style de lecture.
  • Statique-en-mouvement:Le modèle peut animer des images fixes, transformant des photographies ou des illustrations en scènes animées.
  • Variation esthétique:Grâce aux jetons de style, les utilisateurs peuvent ajuster l'éclairage, l'étalonnage des couleurs et les effets cinématographiques.

Quelle architecture alimente Sora ?

Sora s'appuie sur des fondations de transformateur similaires à GPT-4, mais adapte sa représentation d'entrée pour gérer les dimensions temporelles et spatiales de la vidéo :

  1. Jetons de patch spatio-temporels:Les images vidéo sont divisées en patchs 3D qui capturent à la fois les régions de pixels et leur évolution au fil du temps.
  2. Diffusion progressive:À partir du bruit, Sora débruit de manière itérative, affinant les détails spatiaux et le mouvement cohérent en tandem.
  3. Conditionnement multimodal:Les intégrations de texte à partir d'un grand modèle de langage guident le processus de diffusion, garantissant l'alignement sémantique avec les invites de l'utilisateur.

Comment Sora a-t-il été formé ?

Quels ensembles de données ont été utilisés ?

OpenAI n'a pas entièrement divulgué les ensembles de données propriétaires qui sous-tendent Sora, mais les preuves et les rapports disponibles suggèrent un corpus de formation composite :

  • Dépôts vidéo publics:Des millions d'heures de vidéo non soumises à des droits d'auteur provenant de plateformes telles que Pexels, Internet Archive et de bibliothèques de séquences d'archives sous licence.
  • YouTube et le contenu des jeux:Les enquêtes indiquent que pour enrichir les scénarios dynamiques (par exemple, le mouvement des personnages, la physique), OpenAI a incorporé des séquences de diffusions en direct de jeux et d'enregistrements de gameplay, y compris des vidéos Minecraft, soulevant des questions sur la conformité des licences.
  • Clips contribués par les utilisateurs:Au cours de la phase bêta, les testeurs de Sora ont soumis des vidéos personnelles comme références de style, qu'OpenAI a utilisées pour peaufiner.
  • Pré-entraînement synthétique:Les chercheurs ont généré des séquences de mouvements algorithmiques (par exemple, des formes en mouvement, des scènes synthétiques) pour amorcer la compréhension de la physique par le modèle avant d'introduire des séquences du monde réel.

Quel prétraitement a été effectué ?

Avant la formation, toutes les données vidéo ont subi un traitement approfondi pour standardiser le format et garantir la stabilité de la formation :

  1. Normalisation de la résolution:Les clips ont été redimensionnés et complétés à une résolution uniforme de 1920 × 1080, avec des fréquences d'images synchronisées à 30 FPS.
  2. Segmentation temporelle:Les vidéos plus longues ont été découpées en segments d'une minute pour correspondre à l'horizon générationnel de Sora.
  3. Augmentation des données:Des techniques telles que le recadrage aléatoire, la gigue des couleurs, l'inversion temporelle et l'injection de bruit ont enrichi l'ensemble de données, améliorant la robustesse à divers modèles d'éclairage et de mouvement.
  4. Balisage des métadonnées: Les scripts ont analysé le texte d'accompagnement (titres, légendes) pour créer des exemples appariés (vidéo, texte), permettant un conditionnement de texte supervisé.
  5. Audit des biais:Au début du processus, un sous-ensemble de clips a été examiné manuellement pour identifier et atténuer les biais de contenu manifestes (par exemple, les stéréotypes de genre), bien que des analyses ultérieures révèlent que des défis subsistaient.

Comment OpenAI structure-t-il la méthodologie de formation de Sora ?

S'appuyant sur les connaissances du cadre de génération d'images de DALL·E 3, le pipeline de formation de Sora intègre des architectures spécialisées et des fonctions de perte adaptées à la cohérence temporelle et à la simulation physique.

Architecture du modèle et objectifs de pré-formation

Sora utilise une architecture basée sur des transformateurs, optimisée pour les données vidéo, avec des mécanismes d'attention spatiotemporelle qui capturent à la fois les détails image par image et les trajectoires de mouvement. Lors du pré-entraînement, le modèle apprend à prédire les zones masquées sur des images séquentielles, en les étendant vers l'avant et vers l'arrière pour en saisir la continuité.

Adaptation de DALL·E 3

Les blocs de synthèse d'images de Sora sont issus des techniques de diffusion de DALL·E 3, optimisées pour gérer la dimension temporelle supplémentaire. Cette adaptation implique un conditionnement à la fois sur les intégrations textuelles et sur les images vidéo précédentes, permettant la génération fluide de nouveaux clips ou l'extension de clips existants.

Simulation du monde physique

L'un des principaux objectifs de la formation est d'instaurer un « modèle du monde » intuitif capable de simuler les interactions physiques, telles que la gravité, les collisions d'objets et les mouvements de caméra. Le rapport technique d'OpenAI met en évidence l'utilisation de termes de perte auxiliaires inspirés de la physique qui pénalisent les résultats physiquement invraisemblables, bien que le modèle peine encore à gérer des dynamiques complexes comme les mouvements fluides et les ombres nuancées.

Quels défis et controverses ont été rencontrés ?

Des préoccupations juridiques et éthiques ?

L’utilisation de contenu accessible au public et généré par les utilisateurs a déclenché un examen juridique :

  • Litiges relatifs aux droits d'auteur:Les industries créatives du Royaume-Uni ont fait pression pour ne pas autoriser les entreprises d'IA à former les artistes sur leur travail sans consentement explicite, ce qui a suscité un débat parlementaire lors du lancement de Sora au Royaume-Uni en février 2025.
  • Conditions d'utilisation de la plateforme: YouTube a signalé des violations potentielles résultant du grattage de vidéos d'utilisateurs à des fins de formation à l'IA, ce qui a conduit OpenAI à revoir ses politiques d'ingestion.
  • Poursuites:À la suite de précédents établis par des affaires contre des modèles de texte et d'image, les outils de vidéo générative comme Sora pourraient faire l'objet de recours collectifs pour utilisation non autorisée de séquences protégées par le droit d'auteur.

Des biais dans les données de formation ?

Malgré les efforts d’atténuation, Sora présente des biais systématiques :

  • Stéréotypes de genre et professionnels:Une analyse de WIRED a révélé que les vidéos générées par Sora représentent de manière disproportionnée les PDG et les pilotes comme des hommes, tandis que les femmes apparaissent principalement dans des rôles de soins ou de service.
  • Représentation raciale:Le modèle a du mal à gérer la diversité des tons de peau et des traits du visage, optant souvent pour des images plus claires ou centrées sur l'Occident.
  • Capacité physique:Les personnes handicapées sont le plus souvent représentées en fauteuil roulant, ce qui reflète une conception étroite du handicap.
  • Chemin de solution:OpenAI a investi dans des équipes de réduction des biais et prévoit d'intégrer des données de formation plus représentatives et des techniques d'augmentation contrefactuelle.

Quelles avancées ont conduit à des améliorations de la formation ?

Simulation et modélisation du monde ?

La capacité de Sora à restituer des scènes réalistes repose sur des modules avancés de simulation du monde :

  • Priorités fondées sur la physique:Préentraîné sur des ensembles de données synthétiques qui modélisent la gravité, la dynamique des fluides et les réponses aux collisions, Sora construit un moteur physique intuitif au sein de ses couches de transformateur.
  • Réseaux de cohérence temporelle:Les sous-modules spécialisés assurent la cohérence entre les images, réduisant ainsi le scintillement et la gigue de mouvement courants dans les précédentes approches de conversion de texte en vidéo.

Améliorations du réalisme physique ?

Des avancées techniques clés ont amélioré la fidélité de sortie de Sora :

  1. Diffusion haute résolution:Les stratégies de diffusion hiérarchique génèrent d'abord des modèles de mouvement basse résolution, puis passent à la Full HD, préservant à la fois le mouvement global et les détails fins.
  2. L'attention à travers le temps:L'auto-attention temporelle permet au modèle de référencer des images distantes, garantissant ainsi une cohérence à long terme (par exemple, l'orientation et la trajectoire d'un personnage sont maintenues pendant plusieurs secondes).
  3. Transfert de style dynamique:Les adaptateurs de style en temps réel mélangent plusieurs esthétiques visuelles, permettant des changements entre des looks cinématographiques, documentaires ou animés au sein d'un même clip.

Quelles orientations futures pour la formation de Sora ?

Techniques pour réduire les biais ?

OpenAI et la communauté de l’IA au sens large explorent des méthodes pour lutter contre les préjugés profondément ancrés :

  • Augmentation des données contrefactuelles:Synthétiser des versions alternatives de clips de formation (par exemple, échanger les sexes ou les ethnies) pour forcer le modèle à découpler les attributs des rôles.
  • Débiasing contradictoire:Intégrer des discriminateurs qui pénalisent les résultats stéréotypés lors de la formation.
  • Examen avec intervention humaine:Partenariat continu avec divers groupes d'utilisateurs pour auditer et fournir des commentaires sur les résultats du modèle avant sa publication publique.

Élargir la diversité des ensembles de données ?

Il est essentiel de garantir des corpus de formation plus riches :

  • Partenariats vidéo mondiaux: Octroi de licences de contenu provenant de médias non occidentaux pour représenter un éventail plus large de cultures, d’environnements et de scénarios.
  • Réglages précis spécifiques au domaine:Formation de variantes spécialisées de Sora sur des séquences médicales, juridiques ou scientifiques, permettant une génération de vidéos précises et pertinentes pour le domaine.
  • Benchmarks ouverts:Collaborer avec des consortiums de recherche pour créer des ensembles de données standardisés et accessibles au public pour l'évaluation du texte en vidéo, favorisant ainsi la transparence et la concurrence.

Conclusion

Sora est à l'avant-garde de la génération de texte en vidéo, combinant diffusion par transformateur, corpus vidéo à grande échelle et simulations a priori du monde pour produire des clips d'un réalisme sans précédent. Pourtant, son pipeline d'apprentissage, construit sur des ensembles de données massifs et partiellement opaques, soulève des défis juridiques, éthiques et liés aux biais. Alors qu'OpenAI et la communauté au sens large font progresser les techniques de débiasing, de conformité des licences et de diversification des ensembles de données, les prochaines versions de Sora promettent une synthèse vidéo encore plus naturaliste, ouvrant la voie à de nouvelles applications créatives et professionnelles, tout en exigeant une gouvernance vigilante pour préserver les droits artistiques et l'équité sociale.

Pour commencer

CometAPI fournit une interface REST unifiée qui regroupe des centaines de modèles d'IA, dont la famille Gemini de Google, sous un point de terminaison cohérent, avec gestion intégrée des clés API, quotas d'utilisation et tableaux de bord de facturation. Au lieu de jongler avec plusieurs URL et identifiants de fournisseurs, vous dirigez votre client vers https://api.cometapi.com/v1 et spécifiez le modèle cible dans chaque demande.

Les développeurs peuvent accéder API Sora  à travers API CometPour commencer, explorez les capacités du modèle dans le Playground et consultez le Guide de l'API pour des instructions détaillées.

En savoir plus

500+ Modèles en Une API

Jusqu'à 20% de réduction