Prova OpenAI Sora
Creazione di video da testo/immagine, generazione di video in loop, estensione del video in avanti e all'indietro
Sii il primo a sapere quando Sora sarà attivo!
Su OpenAI Sora
Che cos'è Sora
Il modello di testo-video di OpenAI. Sora può generare video fino a un minuto di lunghezza mantenendo la qualità visiva e l'aderenza alle istruzioni testuali dell'utente.
L'obiettivo di Sora
Sora funge da base per modelli che possono comprendere e simulare il mondo reale, aiutare le persone a risolvere problemi che richiedono interazione con il mondo reale.
Progress
Solo disponibile per i membri del team rosso e per artisti visivi, designer e filmmaker invitati.
Caratteristiche
Supporta più personaggi, tipi di movimento specifici, soggetti e dettagli dello sfondo con precisione; I modelli comprendono come queste cose esistano nel mondo fisico, con riprese multiple all'interno di un singolo video.
Limitazioni
Difficoltà nella simulazione accurata della fisica complessa, Confusione dei dettagli spaziali, Apparizione spontanea di oggetti e personaggi, Modellazione fisica inaccurata e deformazione non naturale degli oggetti.
Sicurezza
Collaborare con team rossi per condurre test avversari per identificare e risolvere problemi di sicurezza nel modello, Costruire strumenti per aiutare a rilevare contenuti ingannevoli utilizzando classificatori di rilevamento e metadati C2PA.
Vetrine - aggiornamento quotidiano
Prompt
a brown and white border collie stands on a skateboard, wearing sunglasses
Prompt
1st person view taking the longest zip-line in the world through Dubai
Prompt
-
Prompt
-
Prompt
-
Prompt
Style: Modern cinematic realism with vivid visual accents. A summer evening. A group of young friends is gathered on a rooftop, overlooking the glowing city lights. They’re laughing, chatting, and enjoying the vibe with soft music playing in the background. The camera slowly zooms in on a bottle of YOMI beer on the table. Cold condensation drips down the glass, highlighting the vibrant golden hue of the drink. The focus shifts to a hand reaching for the bottle. The camera follows the motion, capturing the crisp sound of the bottle cap popping open. A sip. A deep breath. A smile. In the background, a voice speaks: ‘YOMI — the taste of the moment. Capture your inspiration.’ Final scene: A bottle of YOMI stands against the backdrop of a setting sun, its golden light refracting through the beer. The brand logo and tagline appear on screen: ‘YOMI. The time of your story.
Prompt
The camera follows behind a white vintage SUV with a black roof rack as it speeds up a steep dirt road surrounded by pine trees on a steep mountain slope, dust kicks up from its tires, the sunlight shines on the SUV as it speeds along the dirt road, casting a warm glow over the scene
Prompt
POV, ACTION SHOTS, JUMPCUTS, Montage,, tracking shot, from the side hyperspeed, 30x speed, cinematic atmosphere, person having a futuristic neon beachpunk in punkexosuit form around them, suiting up, glow and light, Phanto-Cinematic still, beachpunk gigadream, kodak etkar 100, hypersurrealist retrowave religiouscience fiction, Southern California, emocore, hyperfuturistic, beachpunk ISO: T2.8, compression: ARRIRAW, lighting_conditions: ultraviolet blacklight, backlit,
Prompt
Close-up shot of a freeride skier carving through deep, untouched powder snow during a vibrant sunset in the Alps. The camera starts low, tracking alongside the skier as they make a powerful turn, sending a spray of fine snow into the air. The spray catches the warm golden-pink light of the setting sun, creating a stunning glow and sparkling reflections. The camera then pans upward and slightly rotates, revealing the majestic alpine peaks bathed in the sunset’s hues. The skier continues gracefully downhill, leaving a glowing trail of light and snow in their wake as the scene fades into the serene mountain landscape.
Prompt
An elegant scene set in Egypt featuring a female anthropomorphic fox character. She has vibrant red-orange fur and vivid green eyes, posing gracefully near ancient Egyptian ruins with the iconic pyramids in the background. She is wearing a flowing, semi-transparent, culturally inspired robe with golden patterns. The setting includes sandy terrain, scattered palm trees, and hints of ancient stone structures adorned with hieroglyphics. The sky is clear, and the sun casts a warm glow over the scene, emphasizing the mystique of the Egyptian desert landscape.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Other AI video products
Company | Generation Type | Max Length | Extend? | Camera Controls? (zoom, pan) | Motion Control? (amount) | Other Features | Format |
---|---|---|---|---|---|---|---|
Runway | Text-to-video, image-to-video, video-to-video | 4 sec | Yes | Yes | Yes | Motion brush, upscale | Website |
Pika | Text-to-video, image-to-video | 3 sec | Yes | Yes | Yes | Modify region, expand canvas, upscale | Website |
Genmo | Text-to-video, image-to-video | 6 sec | No | Yes | Yes | FX presets | Website |
Kaiber | Text-to-video, image-to-video, video-to-video | 16 sec | No | No | No | Sync to music | Website |
Stability | Image-to-video | 4 sec | No | No | Yes | WebsiteLocal model, SDK | |
Zeroscope | Text-to-video | 3 sec | No | No | No | Local model | |
ModelScope | Text-to-video | 3 sec | No | No | No | Local model | |
Animate Diff | Text-to-video, image-to-video, video-to-video | 3 sec | No | No | No | Local model | |
Morph | Text-to-video | 3 sec | No | No | No | Discord bot | |
Hotshot | Text-to-video | 2 sec | No | No | No | Website | |
Moonvalley | Text-to-video, image-to-video | 3 sec | No | Yes | No | Discord bot | |
Deforum | Text-to-video | 14 sec | No | Yes | No | FX presets | Discord bot |
Leonardo | Image-to-video | 4 sec | No | No | Yes | Website | |
Assistive | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Neural Frames | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Sync to music | Website |
MagicHour | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Face swap, sync to music | Website |
Vispunk | Text-to-video | 3 sec | No | Yes | No | Website | |
Decohere | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Domo Al | Image-to-video, video-to-video | 3 sec | No | No | Yes | Discord bot |
Le persone parlano di Sora su x
SoraAI by OpenAI is wild.
— Alamin (@iam_chonchol) February 18, 2024
These are 100% generated only from text and take just 1 minute 🤯
10 wild examples ( 2nd is WOW ) pic.twitter.com/NLetbJVa2v
If you think OpenAI Sora is a creative toy like DALLE, ... think again. Sora is a data-driven physics engine. It is a simulation of many worlds, real or fantastical. The simulator learns intricate rendering, "intuitive" physics, long-horizon reasoning, and semantic grounding, all… pic.twitter.com/pRuiXhUqYR
— Jim Fan (@DrJimFan) February 15, 2024
"this close-up shot of a futuristic cybernetic german shepherd showcases its striking brown and black fur..."
— Bill Peebles (@billpeeb) February 18, 2024
Video generated by Sora. pic.twitter.com/Bopbl0yv0Y
Sora and Stable Video, text to video compare. pic.twitter.com/pZzSeSXPtN
— Retropunk (@RetropunkAI) February 17, 2024
OpenAI's Sora is the most advanced text-to-video tool yet. 💡
— Escher (@Escher_AI) February 16, 2024
It can generate compellingly realistic characters, create multiple dynamic shots in a single video, with accurate details of both subjects and background.
Here's the 10 best generations so far
🧵👇 pic.twitter.com/FHp0cxt0Ll
OpenAI's Sora is going to change marketing forever, enabling anyone to unleash his inner creativity.
— William Briot (@WilliamBriot) February 15, 2024
Check this 100% AI-generated video of Mammoth generated with the new "text-to-video" OpenAI model: pic.twitter.com/DcDGPjpBXC
"a photorealistic video of a butterfly that can swim navigating underwater through a beautiful coral reef"
— Tim Brooks (@_tim_brooks) February 17, 2024
Video generated by Sora pic.twitter.com/nebCKLa09U
Another Sora video, Sora can generate multiple videos side-by-side simultaneously.
— 🅱️WhiteAfricanSpaceJesus (@zespacejesus) February 18, 2024
This is a single video sample from Sora. It is not stitched together; Sora decided it wanted to have five different viewpoints all at once! pic.twitter.com/q2rfxh61CQ
Sora can also generate stories involving a sequence of events, although it's far from perfect.
— Bill Peebles (@billpeeb) February 17, 2024
For this video, I asked that a golden retriever and samoyed should walk through NYC, then a taxi should stop to let the dogs pass a crosswalk, then they should walk past a pretzel and… pic.twitter.com/OhqVFqR5vA
https://t.co/uCuhUPv51N pic.twitter.com/nej4TIwgaP
— Sam Altman (@sama) February 15, 2024
https://t.co/P26vJHlw06 pic.twitter.com/AW9TfYBu3b
— Sam Altman (@sama) February 15, 2024
https://t.co/rPqToLo6J3 pic.twitter.com/nPPH2bP6IZ
— Sam Altman (@sama) February 15, 2024
https://t.co/WJQCMEH9QG pic.twitter.com/Qa51e18Vph
— Sam Altman (@sama) February 15, 2024
a wizard wearing a pointed hat and a blue robe with white stars casting a spell that shoots lightning from his hand and holding an old tome in his other hand
— biden or buster (@willofdoug) February 15, 2024
Domande frequenti
Sora è un modello AI sviluppato da OpenAI che può creare scene video realistiche e imaginative da istruzioni testuali. È progettato per simulare il mondo fisico in movimento, generando video fino a un minuto di lunghezza mantenendo la qualità visiva e attenendosi alla richiesta dell'utente.
Sora è un modello di diffusione che inizia con un video che assomiglia a un rumore statico e lo trasforma gradualmente rimuovendo il rumore in molteplici passaggi. Utilizza un'architettura trasformatore, simile ai modelli GPT, e rappresenta video e immagini come collezioni di unità di dati più piccole chiamate patch.
Sora può generare una vasta gamma di video, inclusi scene complesse con più personaggi, tipi specifici di movimento e dettagli precisi di soggetti e sfondi. Può anche prendere un'immagine fissa esistente e animarla, o estendere un video esistente riempiendo i frame mancanti.
Sora potrebbe avere difficoltà nel simulare con precisione la fisica delle scene complesse, comprendere specifiche istanze di causa ed effetto e mantenere i dettagli spaziali nel tempo. A volte può creare movimenti fisicamente improbabili o confondere i dettagli spaziali.
OpenAI sta lavorando con red teamers per testare in modo avversario il modello e sta costruendo strumenti per rilevare contenuti ingannevoli. Hanno in programma di includere i metadati C2PA in futuro e stanno sfruttando metodi di sicurezza esistenti dai loro altri prodotti, come classificatori di testo e classificatori di immagini.
Sora è attualmente disponibile per i red teamers per valutare aree critiche per danni o rischi e per artisti visivi, designer e filmmaker per feedback su come far avanzare il modello per i professionisti creativi.
Se sei un professionista creativo, puoi richiedere l'accesso a Sora tramite OpenAI. Una volta ottenuto l'accesso, puoi utilizzare il modello per generare video basati sui tuoi prompt di testo, arricchendo i tuoi progetti creativi con scene uniche e imaginative.
Sora funge da base per modelli che possono comprendere e simulare il mondo reale, che OpenAI ritiene essere una pietra miliare importante verso il raggiungimento dell'Intelligenza Artificiale Generale (AGI).
Sora ha una profonda comprensione del linguaggio, che le consente di interpretare con precisione i prompt di testo e generare personaggi e scene coinvolgenti che esprimono emozioni vibranti. Può creare riprese multiple all'interno di un singolo video mantenendo personaggi e stile visivo coerenti.
Sora utilizza un'architettura trasformatore, simile ai modelli GPT, e rappresenta video e immagini come collezioni di unità di dati più piccole chiamate patch. Questa unificazione della rappresentazione dei dati consente al modello di essere addestrato su una gamma più ampia di dati visivi.
Dando al modello la capacità di prevedere molti fotogrammi contemporaneamente, Sora può garantire che i soggetti rimangano consistenti anche quando escono temporaneamente dalla vista.
Sora utilizza la tecnica di ricapitolazione da DALL·E 3, che consiste nel generare didascalie altamente descrittive per i dati di addestramento visivi. Questo aiuta il modello a seguire più fedelmente le istruzioni testuali dell'utente nei video generati.
OpenAI sta pianificando di adottare diversi passaggi di sicurezza prima di integrare Sora nei suoi prodotti, tra cui test avversari, sviluppo di classificatori di rilevamento e sfruttamento dei metodi di sicurezza esistenti da altri prodotti come DALL·E 3.
Sora può essere utilizzato da registi, animatori, sviluppatori di giochi e altri professionisti creativi per generare contenuti video, storyboard o addirittura per prototipare idee in modo rapido ed efficiente.
OpenAI sta interagendo attivamente con i decisori politici, gli educatori e gli artisti per comprendere le preoccupazioni e individuare casi d'uso positivi per la tecnologia. Riconoscono che, pur non potendo prevedere tutti gli utilizzi benefici o gli abusi, imparare dall'uso nel mondo reale è fondamentale per creare sistemi AI più sicuri nel tempo.
OpenAI ha dei classificatori di testo che controllano e respingono le richieste di input di testo che violano le politiche d'uso, come quelle che richiedono violenza estrema, contenuti sessuali, immagini odiose o uso non autorizzato di proprietà intellettuale.
Un 'modello del mondo' in AI si riferisce a un modello computazionale che simula il mondo fisico e le sue dinamiche, permettendo all'AI di comprendere e prevedere come gli oggetti e le entità interagiscono al suo interno. Nel contesto di Sora, ciò significa che il modello è stato addestrato per generare video che non solo seguono indicazioni testuali ma rispettano anche le leggi fisiche e i comportamenti del mondo reale, come la gravità, il movimento e le interazioni degli oggetti. Questa capacità è cruciale per creare contenuti video realistici e coerenti da descrizioni testuali.