Försök OpenAI Sora
Skapa video från text/bild, generera loopvideo, förlänga video framåt och bakåt
Var den första att veta när Sora är live!
Om OpenAI Sora
Vad är Sora
OpenAI:s text-till-video-modell. Sora kan generera videor upp till en minut långa samtidigt som den bibehåller visuell kvalitet och följer användarens textinstruktioner.
Sora målet
Sora fungerar som en grund för modeller som kan förstå och simulera den verkliga världen, hjälpa människor att lösa problem som kräver interaktion i den verkliga världen.
Framsteg
Endast tillgänglig för röda teammedlemmar och inbjudna visuella konstnärer, designers och filmmakare.
Funktioner
Stöd för flera tecken, specifika rörelsetyper, ämnen och bakgrundsdetaljer med noggrannhet; Modeller förstår hur dessa saker existerar i den fysiska världen, flera tagningar inom en enda video.
Begränsningar
Svårigheter att noggrant simulera komplex fysik, Förvirring av spatiala detaljer, Spontan uppkomst av objekt och karaktärer, Oexakt fysisk modellering och onaturlig objektdeformation.
Säkerhet
Samarbeta med röda team för att genomföra adversarial testning för att identifiera och åtgärda säkerhetsproblem i modellen, Bygg verktyg för att hjälpa till att upptäcka vilseledande innehåll med hjälp av detektionsklassificerare och C2PA-metadata.
Visar - daglig uppdatering
Prompt
a brown and white border collie stands on a skateboard, wearing sunglasses
Prompt
1st person view taking the longest zip-line in the world through Dubai
Prompt
-
Prompt
-
Prompt
-
Prompt
Style: Modern cinematic realism with vivid visual accents. A summer evening. A group of young friends is gathered on a rooftop, overlooking the glowing city lights. They’re laughing, chatting, and enjoying the vibe with soft music playing in the background. The camera slowly zooms in on a bottle of YOMI beer on the table. Cold condensation drips down the glass, highlighting the vibrant golden hue of the drink. The focus shifts to a hand reaching for the bottle. The camera follows the motion, capturing the crisp sound of the bottle cap popping open. A sip. A deep breath. A smile. In the background, a voice speaks: ‘YOMI — the taste of the moment. Capture your inspiration.’ Final scene: A bottle of YOMI stands against the backdrop of a setting sun, its golden light refracting through the beer. The brand logo and tagline appear on screen: ‘YOMI. The time of your story.
Prompt
The camera follows behind a white vintage SUV with a black roof rack as it speeds up a steep dirt road surrounded by pine trees on a steep mountain slope, dust kicks up from its tires, the sunlight shines on the SUV as it speeds along the dirt road, casting a warm glow over the scene
Prompt
POV, ACTION SHOTS, JUMPCUTS, Montage,, tracking shot, from the side hyperspeed, 30x speed, cinematic atmosphere, person having a futuristic neon beachpunk in punkexosuit form around them, suiting up, glow and light, Phanto-Cinematic still, beachpunk gigadream, kodak etkar 100, hypersurrealist retrowave religiouscience fiction, Southern California, emocore, hyperfuturistic, beachpunk ISO: T2.8, compression: ARRIRAW, lighting_conditions: ultraviolet blacklight, backlit,
Prompt
Close-up shot of a freeride skier carving through deep, untouched powder snow during a vibrant sunset in the Alps. The camera starts low, tracking alongside the skier as they make a powerful turn, sending a spray of fine snow into the air. The spray catches the warm golden-pink light of the setting sun, creating a stunning glow and sparkling reflections. The camera then pans upward and slightly rotates, revealing the majestic alpine peaks bathed in the sunset’s hues. The skier continues gracefully downhill, leaving a glowing trail of light and snow in their wake as the scene fades into the serene mountain landscape.
Prompt
An elegant scene set in Egypt featuring a female anthropomorphic fox character. She has vibrant red-orange fur and vivid green eyes, posing gracefully near ancient Egyptian ruins with the iconic pyramids in the background. She is wearing a flowing, semi-transparent, culturally inspired robe with golden patterns. The setting includes sandy terrain, scattered palm trees, and hints of ancient stone structures adorned with hieroglyphics. The sky is clear, and the sun casts a warm glow over the scene, emphasizing the mystique of the Egyptian desert landscape.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Other AI video products
Company | Generation Type | Max Length | Extend? | Camera Controls? (zoom, pan) | Motion Control? (amount) | Other Features | Format |
---|---|---|---|---|---|---|---|
Runway | Text-to-video, image-to-video, video-to-video | 4 sec | Yes | Yes | Yes | Motion brush, upscale | Website |
Pika | Text-to-video, image-to-video | 3 sec | Yes | Yes | Yes | Modify region, expand canvas, upscale | Website |
Genmo | Text-to-video, image-to-video | 6 sec | No | Yes | Yes | FX presets | Website |
Kaiber | Text-to-video, image-to-video, video-to-video | 16 sec | No | No | No | Sync to music | Website |
Stability | Image-to-video | 4 sec | No | No | Yes | WebsiteLocal model, SDK | |
Zeroscope | Text-to-video | 3 sec | No | No | No | Local model | |
ModelScope | Text-to-video | 3 sec | No | No | No | Local model | |
Animate Diff | Text-to-video, image-to-video, video-to-video | 3 sec | No | No | No | Local model | |
Morph | Text-to-video | 3 sec | No | No | No | Discord bot | |
Hotshot | Text-to-video | 2 sec | No | No | No | Website | |
Moonvalley | Text-to-video, image-to-video | 3 sec | No | Yes | No | Discord bot | |
Deforum | Text-to-video | 14 sec | No | Yes | No | FX presets | Discord bot |
Leonardo | Image-to-video | 4 sec | No | No | Yes | Website | |
Assistive | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Neural Frames | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Sync to music | Website |
MagicHour | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Face swap, sync to music | Website |
Vispunk | Text-to-video | 3 sec | No | Yes | No | Website | |
Decohere | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Domo Al | Image-to-video, video-to-video | 3 sec | No | No | Yes | Discord bot |
Människor pratar om Sora på x
SoraAI by OpenAI is wild.
— Alamin (@iam_chonchol) February 18, 2024
These are 100% generated only from text and take just 1 minute 🤯
10 wild examples ( 2nd is WOW ) pic.twitter.com/NLetbJVa2v
If you think OpenAI Sora is a creative toy like DALLE, ... think again. Sora is a data-driven physics engine. It is a simulation of many worlds, real or fantastical. The simulator learns intricate rendering, "intuitive" physics, long-horizon reasoning, and semantic grounding, all… pic.twitter.com/pRuiXhUqYR
— Jim Fan (@DrJimFan) February 15, 2024
"this close-up shot of a futuristic cybernetic german shepherd showcases its striking brown and black fur..."
— Bill Peebles (@billpeeb) February 18, 2024
Video generated by Sora. pic.twitter.com/Bopbl0yv0Y
Sora and Stable Video, text to video compare. pic.twitter.com/pZzSeSXPtN
— Retropunk (@RetropunkAI) February 17, 2024
OpenAI's Sora is the most advanced text-to-video tool yet. 💡
— Escher (@Escher_AI) February 16, 2024
It can generate compellingly realistic characters, create multiple dynamic shots in a single video, with accurate details of both subjects and background.
Here's the 10 best generations so far
🧵👇 pic.twitter.com/FHp0cxt0Ll
OpenAI's Sora is going to change marketing forever, enabling anyone to unleash his inner creativity.
— William Briot (@WilliamBriot) February 15, 2024
Check this 100% AI-generated video of Mammoth generated with the new "text-to-video" OpenAI model: pic.twitter.com/DcDGPjpBXC
"a photorealistic video of a butterfly that can swim navigating underwater through a beautiful coral reef"
— Tim Brooks (@_tim_brooks) February 17, 2024
Video generated by Sora pic.twitter.com/nebCKLa09U
Another Sora video, Sora can generate multiple videos side-by-side simultaneously.
— 🅱️WhiteAfricanSpaceJesus (@zespacejesus) February 18, 2024
This is a single video sample from Sora. It is not stitched together; Sora decided it wanted to have five different viewpoints all at once! pic.twitter.com/q2rfxh61CQ
Sora can also generate stories involving a sequence of events, although it's far from perfect.
— Bill Peebles (@billpeeb) February 17, 2024
For this video, I asked that a golden retriever and samoyed should walk through NYC, then a taxi should stop to let the dogs pass a crosswalk, then they should walk past a pretzel and… pic.twitter.com/OhqVFqR5vA
https://t.co/uCuhUPv51N pic.twitter.com/nej4TIwgaP
— Sam Altman (@sama) February 15, 2024
https://t.co/P26vJHlw06 pic.twitter.com/AW9TfYBu3b
— Sam Altman (@sama) February 15, 2024
https://t.co/rPqToLo6J3 pic.twitter.com/nPPH2bP6IZ
— Sam Altman (@sama) February 15, 2024
https://t.co/WJQCMEH9QG pic.twitter.com/Qa51e18Vph
— Sam Altman (@sama) February 15, 2024
a wizard wearing a pointed hat and a blue robe with white stars casting a spell that shoots lightning from his hand and holding an old tome in his other hand
— biden or buster (@willofdoug) February 15, 2024
Vanliga frågor
Sora är en AI-modell utvecklad av OpenAI som kan skapa realistiska och fantasifulla videosekvenser från textinstruktioner. Den är utformad för att simulera den fysiska världen i rörelse, generera videor upp till en minut långa samtidigt som den bibehåller visuell kvalitet och följer användarens instruktioner.
Sora är en diffusionsmodell som börjar med en video som liknar statiskt brus och gradvis omvandlar den genom att ta bort bruset över många steg. Den använder en transformerarkitektur, liknande GPT-modeller, och representerar videor och bilder som samlingar av mindre dataenheter som kallas patchar.
Sora kan generera ett brett utbud av videor, inklusive komplexa scener med flera karaktärer, specifika typer av rörelser och exakta detaljer av ämnen och bakgrunder. Den kan också ta en befintlig stillbild och animera den, eller förlänga en befintlig video genom att fylla i saknade ramar.
Sora kan ha svårt att noggrant simulera fysiken i komplexa scener, förstå specifika fall av orsak och verkan, och behålla spatiala detaljer över tid. Det kan ibland skapa fysiskt osannolik rörelse eller blanda ihop spatiala detaljer.
OpenAI samarbetar med röda team för att adversarially testa modellen och bygger verktyg för att upptäcka vilseledande innehåll. De planerar att inkludera C2PA-metadata i framtiden och utnyttjar befintliga säkerhetsmetoder från sina andra produkter, såsom textklassificerare och bildklassificerare.
Sora är för närvarande tillgänglig för röda team för att bedöma kritiska områden för skador eller risker och för visuella konstnärer, designers och filmmakare för feedback om hur man kan främja modellen för kreativa yrkesverksamma.
Om du är en kreativ professionell kan du ansöka om tillgång till Sora genom OpenAI. När tillgång beviljats kan du använda modellen för att generera videor baserat på dina textprompter, förbättra dina kreativa projekt med unika och fantasifulla scener.
Sora fungerar som en grund för modeller som kan förstå och simulera den verkliga världen, vilket OpenAI anser är en viktig milstolpe mot att uppnå Artificiell Allmän Intelligens (AGI).
Sora har en djup förståelse för språk, vilket gör att den kan tolka textmeddelanden noggrant och skapa övertygande karaktärer och scener som uttrycker livliga känslor. Den kan skapa flera bilder inom en enda video samtidigt som den behåller konsekventa karaktärer och visuell stil.
Sora använder en transformerarkitektur, liknande GPT-modeller, och representerar videor och bilder som samlingar av mindre enheter av data som kallas patchar. Denna enhetliga datarepresentation gör att modellen kan tränas på ett bredare utbud av visuell data.
Genom att ge modellen förmåga att se flera ramar samtidigt kan Sora se till att ämnena förblir konsekventa även när de tillfälligt försvinner ur sikte.
Sora använder recaptioning-tekniken från DALL·E 3, vilket innebär att generera mycket beskrivande bildtexter för den visuella träningsdatan. Detta hjälper modellen att följa användarens textinstruktioner mer troget i de genererade videorna.
OpenAI planerar att vidta flera säkerhetsåtgärder innan man integrerar Sora i sina produkter, inklusive adversarial testning, utveckling av detektionsklassificerare och utnyttjande av befintliga säkerhetsmetoder från andra produkter som DALL·E 3.
Sora kan användas av filmmakare, animatörer, spelutvecklare och andra kreativa yrkesverksamma för att skapa videomaterial, storyboards eller till och med för att prototypa idéer snabbt och effektivt.
OpenAI samarbetar aktivt med beslutsfattare, pedagoger och konstnärer för att förstå bekymmer och identifiera positiva användningsfall för teknologin. De erkänner att även om de inte kan förutse alla fördelaktiga användningsområden eller missbruk, är det avgörande att lära sig av verklig användning för att skapa säkrare AI-system över tiden.
OpenAI har textklassificerare som kontrollerar och avvisar textinmatningsförslag som bryter mot användningspolicyer, såsom de som begär extremt våld, sexuellt innehåll, hatfulla bilder eller obehörig användning av immateriell egendom.
En 'världsmodell' inom AI syftar till en beräkningsmodell som simulerar den fysiska världen och dess dynamik, vilket gör det möjligt för AI att förstå och förutsäga hur objekt och enheter interagerar inom den. I Sora-sammanhanget innebär detta att modellen har tränats för att generera videor som inte bara följer textuella ledtrådar utan också följer de fysiska lagarna och beteendena i den verkliga världen, såsom tyngdkraft, rörelse och objektinteraktioner. Denna förmåga är avgörande för att skapa realistiskt och sammanhängande videoinnehåll från textbeskrivningar.