Probeer OpenAI Sora
Video maken van tekst/afbeelding, loopvideo genereren, video vooruit en achteruit verlengen
Wees de eerste die weet wanneer Sora live is!
Over OpenAI Sora
Wat is Sora
OpenAI's tekst-naar-video model. Sora kan video's genereren tot een minuut lang met behoud van visuele kwaliteit en naleving van de tekstinstructies van de gebruiker.
Het doel van Sora
Sora dient als basis voor modellen die de echte wereld kunnen begrijpen en simuleren, mensen helpen bij het oplossen van problemen die echte wereld interactie vereisen.
Vooruitgang
Alleen beschikbaar voor rode teamleden en uitgenodigde visuele kunstenaars, ontwerpers en filmmakers.
Kenmerken
Ondersteun meerdere personages, specifieke bewegingstypes, onderwerpen en achtergronddetails met nauwkeurigheid; Modellen begrijpen hoe deze dingen bestaan in de fysieke wereld, meerdere shots binnen één video.
Beperkingen
Moeilijkheid bij het nauwkeurig simuleren van complexe natuurkunde, Verwarring van ruimtelijke details, Spontane verschijning van objecten en personages, Onnauwkeurige fysieke modellering en onnatuurlijke objectdeformatie.
Veiligheid
Samenwerken met rode teams om vijandige tests uit te voeren om beveiligingsproblemen in het model te identificeren en aan te pakken, Tools bouwen om te helpen bij het detecteren van misleidende inhoud met behulp van detectieclassifiers en C2PA-metadata.
Showcases - dagelijkse update
Prompt
a brown and white border collie stands on a skateboard, wearing sunglasses
Prompt
1st person view taking the longest zip-line in the world through Dubai
Prompt
-
Prompt
-
Prompt
-
Prompt
Style: Modern cinematic realism with vivid visual accents. A summer evening. A group of young friends is gathered on a rooftop, overlooking the glowing city lights. They’re laughing, chatting, and enjoying the vibe with soft music playing in the background. The camera slowly zooms in on a bottle of YOMI beer on the table. Cold condensation drips down the glass, highlighting the vibrant golden hue of the drink. The focus shifts to a hand reaching for the bottle. The camera follows the motion, capturing the crisp sound of the bottle cap popping open. A sip. A deep breath. A smile. In the background, a voice speaks: ‘YOMI — the taste of the moment. Capture your inspiration.’ Final scene: A bottle of YOMI stands against the backdrop of a setting sun, its golden light refracting through the beer. The brand logo and tagline appear on screen: ‘YOMI. The time of your story.
Prompt
The camera follows behind a white vintage SUV with a black roof rack as it speeds up a steep dirt road surrounded by pine trees on a steep mountain slope, dust kicks up from its tires, the sunlight shines on the SUV as it speeds along the dirt road, casting a warm glow over the scene
Prompt
POV, ACTION SHOTS, JUMPCUTS, Montage,, tracking shot, from the side hyperspeed, 30x speed, cinematic atmosphere, person having a futuristic neon beachpunk in punkexosuit form around them, suiting up, glow and light, Phanto-Cinematic still, beachpunk gigadream, kodak etkar 100, hypersurrealist retrowave religiouscience fiction, Southern California, emocore, hyperfuturistic, beachpunk ISO: T2.8, compression: ARRIRAW, lighting_conditions: ultraviolet blacklight, backlit,
Prompt
Close-up shot of a freeride skier carving through deep, untouched powder snow during a vibrant sunset in the Alps. The camera starts low, tracking alongside the skier as they make a powerful turn, sending a spray of fine snow into the air. The spray catches the warm golden-pink light of the setting sun, creating a stunning glow and sparkling reflections. The camera then pans upward and slightly rotates, revealing the majestic alpine peaks bathed in the sunset’s hues. The skier continues gracefully downhill, leaving a glowing trail of light and snow in their wake as the scene fades into the serene mountain landscape.
Prompt
An elegant scene set in Egypt featuring a female anthropomorphic fox character. She has vibrant red-orange fur and vivid green eyes, posing gracefully near ancient Egyptian ruins with the iconic pyramids in the background. She is wearing a flowing, semi-transparent, culturally inspired robe with golden patterns. The setting includes sandy terrain, scattered palm trees, and hints of ancient stone structures adorned with hieroglyphics. The sky is clear, and the sun casts a warm glow over the scene, emphasizing the mystique of the Egyptian desert landscape.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Other AI video products
Company | Generation Type | Max Length | Extend? | Camera Controls? (zoom, pan) | Motion Control? (amount) | Other Features | Format |
---|---|---|---|---|---|---|---|
Runway | Text-to-video, image-to-video, video-to-video | 4 sec | Yes | Yes | Yes | Motion brush, upscale | Website |
Pika | Text-to-video, image-to-video | 3 sec | Yes | Yes | Yes | Modify region, expand canvas, upscale | Website |
Genmo | Text-to-video, image-to-video | 6 sec | No | Yes | Yes | FX presets | Website |
Kaiber | Text-to-video, image-to-video, video-to-video | 16 sec | No | No | No | Sync to music | Website |
Stability | Image-to-video | 4 sec | No | No | Yes | WebsiteLocal model, SDK | |
Zeroscope | Text-to-video | 3 sec | No | No | No | Local model | |
ModelScope | Text-to-video | 3 sec | No | No | No | Local model | |
Animate Diff | Text-to-video, image-to-video, video-to-video | 3 sec | No | No | No | Local model | |
Morph | Text-to-video | 3 sec | No | No | No | Discord bot | |
Hotshot | Text-to-video | 2 sec | No | No | No | Website | |
Moonvalley | Text-to-video, image-to-video | 3 sec | No | Yes | No | Discord bot | |
Deforum | Text-to-video | 14 sec | No | Yes | No | FX presets | Discord bot |
Leonardo | Image-to-video | 4 sec | No | No | Yes | Website | |
Assistive | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Neural Frames | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Sync to music | Website |
MagicHour | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Face swap, sync to music | Website |
Vispunk | Text-to-video | 3 sec | No | Yes | No | Website | |
Decohere | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Domo Al | Image-to-video, video-to-video | 3 sec | No | No | Yes | Discord bot |
Mensen praten over Sora op x
SoraAI by OpenAI is wild.
— Alamin (@iam_chonchol) February 18, 2024
These are 100% generated only from text and take just 1 minute 🤯
10 wild examples ( 2nd is WOW ) pic.twitter.com/NLetbJVa2v
If you think OpenAI Sora is a creative toy like DALLE, ... think again. Sora is a data-driven physics engine. It is a simulation of many worlds, real or fantastical. The simulator learns intricate rendering, "intuitive" physics, long-horizon reasoning, and semantic grounding, all… pic.twitter.com/pRuiXhUqYR
— Jim Fan (@DrJimFan) February 15, 2024
"this close-up shot of a futuristic cybernetic german shepherd showcases its striking brown and black fur..."
— Bill Peebles (@billpeeb) February 18, 2024
Video generated by Sora. pic.twitter.com/Bopbl0yv0Y
Sora and Stable Video, text to video compare. pic.twitter.com/pZzSeSXPtN
— Retropunk (@RetropunkAI) February 17, 2024
OpenAI's Sora is the most advanced text-to-video tool yet. 💡
— Escher (@Escher_AI) February 16, 2024
It can generate compellingly realistic characters, create multiple dynamic shots in a single video, with accurate details of both subjects and background.
Here's the 10 best generations so far
🧵👇 pic.twitter.com/FHp0cxt0Ll
OpenAI's Sora is going to change marketing forever, enabling anyone to unleash his inner creativity.
— William Briot (@WilliamBriot) February 15, 2024
Check this 100% AI-generated video of Mammoth generated with the new "text-to-video" OpenAI model: pic.twitter.com/DcDGPjpBXC
"a photorealistic video of a butterfly that can swim navigating underwater through a beautiful coral reef"
— Tim Brooks (@_tim_brooks) February 17, 2024
Video generated by Sora pic.twitter.com/nebCKLa09U
Another Sora video, Sora can generate multiple videos side-by-side simultaneously.
— 🅱️WhiteAfricanSpaceJesus (@zespacejesus) February 18, 2024
This is a single video sample from Sora. It is not stitched together; Sora decided it wanted to have five different viewpoints all at once! pic.twitter.com/q2rfxh61CQ
Sora can also generate stories involving a sequence of events, although it's far from perfect.
— Bill Peebles (@billpeeb) February 17, 2024
For this video, I asked that a golden retriever and samoyed should walk through NYC, then a taxi should stop to let the dogs pass a crosswalk, then they should walk past a pretzel and… pic.twitter.com/OhqVFqR5vA
https://t.co/uCuhUPv51N pic.twitter.com/nej4TIwgaP
— Sam Altman (@sama) February 15, 2024
https://t.co/P26vJHlw06 pic.twitter.com/AW9TfYBu3b
— Sam Altman (@sama) February 15, 2024
https://t.co/rPqToLo6J3 pic.twitter.com/nPPH2bP6IZ
— Sam Altman (@sama) February 15, 2024
https://t.co/WJQCMEH9QG pic.twitter.com/Qa51e18Vph
— Sam Altman (@sama) February 15, 2024
a wizard wearing a pointed hat and a blue robe with white stars casting a spell that shoots lightning from his hand and holding an old tome in his other hand
— biden or buster (@willofdoug) February 15, 2024
Veelgestelde vragen
Sora is een AI-model ontwikkeld door OpenAI dat realistische en fantasierijke videoscènes kan creëren op basis van tekstinstructies. Het is ontworpen om de fysieke wereld in beweging te simuleren, video's te genereren tot een minuut lang met behoud van visuele kwaliteit en het volgen van de instructies van de gebruiker.
Sora is een diffusiemodel dat begint met een video die lijkt op statische ruis en deze geleidelijk transformeert door de ruis in veel stappen te verwijderen. Het maakt gebruik van een transformer-architectuur, vergelijkbaar met GPT-modellen, en vertegenwoordigt video's en afbeeldingen als verzamelingen van kleinere gegevenseenheden die patches worden genoemd.
Sora kan een breed scala aan video's genereren, waaronder complexe scènes met meerdere personages, specifieke soorten beweging en nauwkeurige details van onderwerpen en achtergronden. Het kan ook een bestaande stilstaande afbeelding animeren of een bestaande video verlengen door ontbrekende frames in te vullen.
Sora kan moeite hebben met het nauwkeurig simuleren van de natuurkunde van complexe scènes, het begrijpen van specifieke gevallen van oorzaak en gevolg, en het behouden van ruimtelijke details in de loop van de tijd. Het kan soms fysiek onwaarschijnlijke bewegingen creëren of ruimtelijke details door elkaar halen.
OpenAI werkt samen met rode teamleden om het model op een vijandige manier te testen en bouwt tools om misleidende inhoud te detecteren. Ze zijn van plan om in de toekomst C2PA-metadata op te nemen en maken gebruik van bestaande veiligheidsmethoden van hun andere producten, zoals tekstclassificatoren en beeldclassificatoren.
Sora is momenteel beschikbaar voor rode teamers om kritieke gebieden te beoordelen op schade of risico's en voor visuele kunstenaars, ontwerpers en filmmakers voor feedback over hoe het model voor creatieve professionals kan worden verbeterd.
Als u een creatieve professional bent, kunt u toegang aanvragen tot Sora via OpenAI. Eenmaal toegang verleend, kunt u het model gebruiken om video's te genereren op basis van uw tekst prompts, waardoor uw creatieve projecten worden verrijkt met unieke en fantasierijke scènes.
Sora dient als basis voor modellen die de echte wereld kunnen begrijpen en simuleren, waarvan OpenAI gelooft dat het een belangrijke mijlpaal is in de richting van het bereiken van Kunstmatige Algemene Intelligentie (AGI).
Sora heeft een diepgaand begrip van taal, waardoor het tekstprompt nauwkeurig kan interpreteren en boeiende personages en scènes kan genereren die levendige emoties uitdrukken. Het kan meerdere shots creëren binnen een enkele video, terwijl het consistente personages en visuele stijl behoudt.
Sora gebruikt een transformer-architectuur, vergelijkbaar met GPT-modellen, en vertegenwoordigt video's en afbeeldingen als verzamelingen van kleinere eenheden data genaamd patches. Deze unificatie van data representatie maakt het mogelijk dat het model wordt getraind op een breder scala aan visuele data.
Door het model vooruitzicht te geven van vele frames tegelijk, kan Sora ervoor zorgen dat onderwerpen consistent blijven, zelfs wanneer ze tijdelijk uit het zicht verdwijnen.
Sora gebruikt de onderschriften techniek van DALL·E 3, die inhoudt dat er zeer gedetailleerde onderschriften worden gegenereerd voor de visuele trainingsgegevens. Dit helpt het model om de tekstinstructies van de gebruiker trouwer te volgen in de gegenereerde video's.
OpenAI is van plan om verschillende veiligheidsmaatregelen te nemen voordat Sora wordt geïntegreerd in haar producten, waaronder adversariële tests, het ontwikkelen van detectieclassificatoren en het benutten van bestaande veiligheidsmethoden van andere producten zoals DALL·E 3.
Sora kan worden gebruikt door filmmakers, animators, gameontwikkelaars en andere creatieve professionals om videomateriaal, storyboards te genereren, of zelfs om ideeën snel en efficiënt te prototypen.
OpenAI is actief betrokken bij beleidsmakers, opvoeders en kunstenaars om zorgen te begrijpen en positieve gebruiksmogelijkheden voor de technologie te identificeren. Ze erkennen dat ze niet alle voordelige toepassingen of misbruiken kunnen voorspellen, maar dat leren van het gebruik in de echte wereld cruciaal is voor het creëren van veiligere AI-systemen in de loop van de tijd.
OpenAI heeft tekstclassificatoren die tekstinvoer prompts controleren en afwijzen die in strijd zijn met het gebruik van beleid, zoals die welke vragen om extreme geweld, seksuele inhoud, haatdragende beelden of ongeoorloofd gebruik van intellectueel eigendom.
Een 'wereldmodel' in AI verwijst naar een computationeel model dat de fysieke wereld en haar dynamiek simuleert, waardoor de AI kan begrijpen en voorspellen hoe objecten en entiteiten binnenin ermee interageren. In de context van Sora betekent dit dat het model is getraind om video's te genereren die niet alleen tekstuele aanwijzingen volgen, maar ook voldoen aan de fysische wetten en gedragingen van de echte wereld, zoals zwaartekracht, beweging en objectinteracties. Deze mogelijkheid is cruciaal voor het creëren van realistische en coherente videomateriaal uit tekstuele beschrijvingen.