Essayez OpenAI Sora
Création de vidéo à partir de texte/image, génération de vidéo en boucle, extension de vidéo vers l'avant et vers l'arrière
Soyez le premier à savoir quand Sora est en direct !
À propos de OpenAI Sora
Qu'est-ce que Sora
Le modèle texte-vidéo d'OpenAI. Sora peut générer des vidéos d'une minute tout en maintenant une qualité visuelle et en respectant les instructions textuelles de l'utilisateur.
L'objectif de Sora
Sora sert de base pour les modèles qui peuvent comprendre et simuler le monde réel, aider les gens à résoudre des problèmes qui nécessitent une interaction avec le monde réel.
Progrès
Uniquement disponible pour les membres de l'équipe rouge et les artistes visuels, designers et cinéastes invités.
Caractéristiques
Soutenir plusieurs caractères, types de mouvements spécifiques, sujets et détails de l'arrière-plan avec précision; Les modèles comprennent comment ces choses existent dans le monde physique, plusieurs prises de vue dans une seule vidéo.
LimitationsLimitations
Difficulté à simuler avec précision des phénomènes physiques complexes, Confusion des détails spatiaux, Apparition spontanée d'objets et de personnages, Modélisation physique inexacte et déformation artificielle des objets.
Sécurité
Collaborez avec des équipes rouges pour mener des tests adverses afin d'identifier et de résoudre les problèmes de sécurité dans le modèle, Développez des outils pour aider à détecter le contenu trompeur en utilisant des classificateurs de détection et des métadonnées C2PA.
Vitrines - mise à jour quotidienne
Prompt
-
Prompt
Bubble Dragon
Prompt
Sora generates an imaginary video of the interview.
Prompt
an extreme close up shot of a woman's eye, with her iris appearing as earth
Prompt
fly through tour of a museum with many paintings and sculptures and beautiful works of art in all styles
Prompt
a red panda and a toucan are best friends taking a stroll through santorini during the blue hour
Prompt
a man BASE jumping over tropical hawaii waters. His pet macaw flies alongside him.
Prompt
a dark neon rainforest aglow with fantastical fauna and animals.
Prompt
Close-up of a majestic white dragon with pearlescent, silver-edged scales, icy blue eyes, elegant ivory horns, and misty breath. Focus on detailed facial features and textured scales, set against a softly blurred background.
Prompt
a scuba diver discovers a hidden futuristic shipwreck, with cybernetic marine life and advanced alien technology
Prompt
in a beautifully rendered papercraft world, a steamboat travels across a vast ocean with wispy clouds in the sky. vast grassy hills lie in the distant background, and some sealife is visible near the papercraft ocean's surface
Prompt
cinematic trailer for a group of samoyed puppies learning to become chefs.
Other AI video products
Company | Generation Type | Max Length | Extend? | Camera Controls? (zoom, pan) | Motion Control? (amount) | Other Features | Format |
---|---|---|---|---|---|---|---|
Runway | Text-to-video, image-to-video, video-to-video | 4 sec | Yes | Yes | Yes | Motion brush, upscale | Website |
Pika | Text-to-video, image-to-video | 3 sec | Yes | Yes | Yes | Modify region, expand canvas, upscale | Website |
Genmo | Text-to-video, image-to-video | 6 sec | No | Yes | Yes | FX presets | Website |
Kaiber | Text-to-video, image-to-video, video-to-video | 16 sec | No | No | No | Sync to music | Website |
Stability | Image-to-video | 4 sec | No | No | Yes | WebsiteLocal model, SDK | |
Zeroscope | Text-to-video | 3 sec | No | No | No | Local model | |
ModelScope | Text-to-video | 3 sec | No | No | No | Local model | |
Animate Diff | Text-to-video, image-to-video, video-to-video | 3 sec | No | No | No | Local model | |
Morph | Text-to-video | 3 sec | No | No | No | Discord bot | |
Hotshot | Text-to-video | 2 sec | No | No | No | Website | |
Moonvalley | Text-to-video, image-to-video | 3 sec | No | Yes | No | Discord bot | |
Deforum | Text-to-video | 14 sec | No | Yes | No | FX presets | Discord bot |
Leonardo | Image-to-video | 4 sec | No | No | Yes | Website | |
Assistive | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Neural Frames | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Sync to music | Website |
MagicHour | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Face swap, sync to music | Website |
Vispunk | Text-to-video | 3 sec | No | Yes | No | Website | |
Decohere | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Domo Al | Image-to-video, video-to-video | 3 sec | No | No | Yes | Discord bot |
Les gens parlent de Sora sur x
SoraAI by OpenAI is wild.
— Alamin (@iam_chonchol) February 18, 2024
These are 100% generated only from text and take just 1 minute 🤯
10 wild examples ( 2nd is WOW ) pic.twitter.com/NLetbJVa2v
If you think OpenAI Sora is a creative toy like DALLE, ... think again. Sora is a data-driven physics engine. It is a simulation of many worlds, real or fantastical. The simulator learns intricate rendering, "intuitive" physics, long-horizon reasoning, and semantic grounding, all… pic.twitter.com/pRuiXhUqYR
— Jim Fan (@DrJimFan) February 15, 2024
"this close-up shot of a futuristic cybernetic german shepherd showcases its striking brown and black fur..."
— Bill Peebles (@billpeeb) February 18, 2024
Video generated by Sora. pic.twitter.com/Bopbl0yv0Y
Sora and Stable Video, text to video compare. pic.twitter.com/pZzSeSXPtN
— Retropunk (@RetropunkAI) February 17, 2024
OpenAI's Sora is the most advanced text-to-video tool yet. 💡
— Escher (@Escher_AI) February 16, 2024
It can generate compellingly realistic characters, create multiple dynamic shots in a single video, with accurate details of both subjects and background.
Here's the 10 best generations so far
🧵👇 pic.twitter.com/FHp0cxt0Ll
OpenAI's Sora is going to change marketing forever, enabling anyone to unleash his inner creativity.
— William Briot (@WilliamBriot) February 15, 2024
Check this 100% AI-generated video of Mammoth generated with the new "text-to-video" OpenAI model: pic.twitter.com/DcDGPjpBXC
"a photorealistic video of a butterfly that can swim navigating underwater through a beautiful coral reef"
— Tim Brooks (@_tim_brooks) February 17, 2024
Video generated by Sora pic.twitter.com/nebCKLa09U
Another Sora video, Sora can generate multiple videos side-by-side simultaneously.
— 🅱️WhiteAfricanSpaceJesus (@zespacejesus) February 18, 2024
This is a single video sample from Sora. It is not stitched together; Sora decided it wanted to have five different viewpoints all at once! pic.twitter.com/q2rfxh61CQ
Sora can also generate stories involving a sequence of events, although it's far from perfect.
— Bill Peebles (@billpeeb) February 17, 2024
For this video, I asked that a golden retriever and samoyed should walk through NYC, then a taxi should stop to let the dogs pass a crosswalk, then they should walk past a pretzel and… pic.twitter.com/OhqVFqR5vA
https://t.co/uCuhUPv51N pic.twitter.com/nej4TIwgaP
— Sam Altman (@sama) February 15, 2024
https://t.co/P26vJHlw06 pic.twitter.com/AW9TfYBu3b
— Sam Altman (@sama) February 15, 2024
https://t.co/rPqToLo6J3 pic.twitter.com/nPPH2bP6IZ
— Sam Altman (@sama) February 15, 2024
https://t.co/WJQCMEH9QG pic.twitter.com/Qa51e18Vph
— Sam Altman (@sama) February 15, 2024
a wizard wearing a pointed hat and a blue robe with white stars casting a spell that shoots lightning from his hand and holding an old tome in his other hand
— biden or buster (@willofdoug) February 15, 2024
FAQ
Sora est un modèle d'IA développé par OpenAI qui peut créer des scènes vidéo réalistes et imaginatives à partir d'instructions textuelles. Il est conçu pour simuler le monde physique en mouvement, générant des vidéos d'une minute tout en maintenant la qualité visuelle et en respectant la demande de l'utilisateur.
Sora est un modèle de diffusion qui commence par une vidéo ressemblant à du bruit statique et la transforme progressivement en supprimant le bruit au fil de nombreuses étapes. Il utilise une architecture de transformateur, similaire aux modèles GPT, et représente les vidéos et les images comme des collections d'unités de données plus petites appelées patchs.
Sora peut générer une large gamme de vidéos, y compris des scènes complexes avec plusieurs personnages, des types spécifiques de mouvements et des détails précis des sujets et des arrière-plans. Il peut également prendre une image fixe existante et l'animer, ou étendre une vidéo existante en comblant les images manquantes.
Sora peut avoir du mal à simuler avec précision la physique des scènes complexes, à comprendre des cas spécifiques de cause à effet et à maintenir les détails spatiaux dans le temps. Il peut parfois créer des mouvements physiquement implausibles ou mélanger les détails spatiaux.
OpenAI travaille avec des équipes de red team pour tester de manière adversaire le modèle et construit des outils pour détecter les contenus trompeurs. Ils prévoient d'inclure des métadonnées C2PA à l'avenir et exploitent les méthodes de sécurité existantes de leurs autres produits, telles que les classificateurs de texte et les classificateurs d'images.
Sora est actuellement disponible pour les membres de l'équipe rouge afin d'évaluer les zones critiques de dommages ou de risques, ainsi que pour les artistes visuels, les designers et les cinéastes afin d'obtenir des retours sur la manière de faire évoluer le modèle pour les professionnels de la création.
Si vous êtes un professionnel de la création, vous pouvez demander l'accès à Sora via OpenAI. Une fois l'accès accordé, vous pouvez utiliser le modèle pour générer des vidéos basées sur vos instructions textuelles, améliorant ainsi vos projets créatifs avec des scènes uniques et imaginatives.
Sora sert de base pour des modèles capables de comprendre et de simuler le monde réel, ce que OpenAI considère comme une étape importante vers l'atteinte de l'Intelligence Artificielle Générale (IAG).
Sora a une compréhension profonde du langage, lui permettant d'interpréter avec précision les indications textuelles et de créer des personnages et des scènes captivants exprimant des émotions vibrantes. Il peut créer plusieurs plans au sein d'une seule vidéo tout en maintenant des personnages et un style visuel cohérents.
Sora utilise une architecture de transformateur, similaire aux modèles GPT, et représente les vidéos et les images comme des collections de petites unités de données appelées patchs. Cette unification de la représentation des données permet au modèle d'être entraîné sur une gamme plus large de données visuelles.
En donnant au modèle la capacité de prévoir plusieurs images à la fois, Sora peut s'assurer que les sujets restent cohérents même lorsqu'ils sortent temporairement de la vue.
Sora utilise la technique de recaptioning de DALL·E 3, qui consiste à générer des légendes très descriptives pour les données d'entraînement visuelles. Cela aide le modèle à suivre plus fidèlement les instructions textuelles de l'utilisateur dans les vidéos générées.
OpenAI prévoit de prendre plusieurs mesures de sécurité avant d'intégrer Sora dans ses produits, notamment des tests adversaires, le développement de classificateurs de détection, et l'utilisation de méthodes de sécurité existantes provenant d'autres produits comme DALL·E 3.
Sora peut être utilisé par les cinéastes, les animateurs, les développeurs de jeux et autres professionnels de la création pour générer du contenu vidéo, des storyboards, voire même pour prototyper des idées rapidement et efficacement.
OpenAI collabore activement avec les décideurs politiques, les éducateurs et les artistes pour comprendre les préoccupations et identifier des cas d'utilisation positifs de la technologie. Ils reconnaissent que même s'ils ne peuvent pas prédire toutes les utilisations bénéfiques ou abusives, apprendre des utilisations réelles est essentiel pour créer des systèmes d'IA plus sûrs avec le temps.
OpenAI dispose de classificateurs de texte qui vérifient et rejettent les prompts d'entrée de texte violant les politiques d'utilisation, tels que ceux demandant une violence extrême, du contenu sexuel, des images haineuses ou une utilisation non autorisée de la propriété intellectuelle.
Un 'modèle du monde' en IA fait référence à un modèle computationnel qui simule le monde physique et sa dynamique, permettant à l'IA de comprendre et de prédire comment les objets et entités interagissent à l'intérieur. Dans le contexte de Sora, cela signifie que le modèle a été entraîné pour générer des vidéos qui non seulement suivent des instructions textuelles, mais qui respectent également les lois physiques et les comportements du monde réel, tels que la gravité, le mouvement et les interactions entre objets. Cette capacité est cruciale pour créer un contenu vidéo réaliste et cohérent à partir de descriptions textuelles.