Coba OpenAI Sora
Membuat video dari teks/gambar, menghasilkan video loop, memperpanjang video ke depan dan ke belakang
Jadilah yang pertama tahu ketika Sora sudah aktif!
Tentang OpenAI Sora
Apa itu Sora
Model teks-ke-video OpenAI. Sora dapat menghasilkan video hingga satu menit lamanya sambil menjaga kualitas visual dan kepatuhan pada instruksi teks pengguna.
Tujuan Sora
Sora berfungsi sebagai dasar untuk model-model yang dapat memahami dan mensimulasikan dunia nyata, membantu orang menyelesaikan masalah yang memerlukan interaksi dunia nyata.
Kemajuan
Hanya tersedia untuk tim merah dan seniman visual, desainer, dan pembuat film yang diundang.
Fitur
Mendukung beberapa karakter, jenis gerakan tertentu, subjek, dan detail latar belakang dengan akurasi; Model memahami bagaimana hal-hal ini ada di dunia fisik, beberapa tembakan dalam satu video.
Batasan
Kesulitan dalam mensimulasikan fisika kompleks secara akurat, kebingungan dalam detail spasial, munculnya objek dan karakter secara spontan, pemodelan fisik yang tidak akurat dan deformasi objek yang tidak alami.
Keamanan
Bekerjasama dengan tim merah untuk melakukan uji coba adversarial untuk mengidentifikasi dan menangani masalah keamanan dalam model, Membangun alat untuk membantu mendeteksi konten yang menyesatkan menggunakan klasifikasi deteksi dan metadata C2PA.
Pameran - pembaruan harian
Prompt
a brown and white border collie stands on a skateboard, wearing sunglasses
Prompt
1st person view taking the longest zip-line in the world through Dubai
Prompt
-
Prompt
-
Prompt
-
Prompt
Style: Modern cinematic realism with vivid visual accents. A summer evening. A group of young friends is gathered on a rooftop, overlooking the glowing city lights. They’re laughing, chatting, and enjoying the vibe with soft music playing in the background. The camera slowly zooms in on a bottle of YOMI beer on the table. Cold condensation drips down the glass, highlighting the vibrant golden hue of the drink. The focus shifts to a hand reaching for the bottle. The camera follows the motion, capturing the crisp sound of the bottle cap popping open. A sip. A deep breath. A smile. In the background, a voice speaks: ‘YOMI — the taste of the moment. Capture your inspiration.’ Final scene: A bottle of YOMI stands against the backdrop of a setting sun, its golden light refracting through the beer. The brand logo and tagline appear on screen: ‘YOMI. The time of your story.
Prompt
The camera follows behind a white vintage SUV with a black roof rack as it speeds up a steep dirt road surrounded by pine trees on a steep mountain slope, dust kicks up from its tires, the sunlight shines on the SUV as it speeds along the dirt road, casting a warm glow over the scene
Prompt
POV, ACTION SHOTS, JUMPCUTS, Montage,, tracking shot, from the side hyperspeed, 30x speed, cinematic atmosphere, person having a futuristic neon beachpunk in punkexosuit form around them, suiting up, glow and light, Phanto-Cinematic still, beachpunk gigadream, kodak etkar 100, hypersurrealist retrowave religiouscience fiction, Southern California, emocore, hyperfuturistic, beachpunk ISO: T2.8, compression: ARRIRAW, lighting_conditions: ultraviolet blacklight, backlit,
Prompt
Close-up shot of a freeride skier carving through deep, untouched powder snow during a vibrant sunset in the Alps. The camera starts low, tracking alongside the skier as they make a powerful turn, sending a spray of fine snow into the air. The spray catches the warm golden-pink light of the setting sun, creating a stunning glow and sparkling reflections. The camera then pans upward and slightly rotates, revealing the majestic alpine peaks bathed in the sunset’s hues. The skier continues gracefully downhill, leaving a glowing trail of light and snow in their wake as the scene fades into the serene mountain landscape.
Prompt
An elegant scene set in Egypt featuring a female anthropomorphic fox character. She has vibrant red-orange fur and vivid green eyes, posing gracefully near ancient Egyptian ruins with the iconic pyramids in the background. She is wearing a flowing, semi-transparent, culturally inspired robe with golden patterns. The setting includes sandy terrain, scattered palm trees, and hints of ancient stone structures adorned with hieroglyphics. The sky is clear, and the sun casts a warm glow over the scene, emphasizing the mystique of the Egyptian desert landscape.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Other AI video products
Company | Generation Type | Max Length | Extend? | Camera Controls? (zoom, pan) | Motion Control? (amount) | Other Features | Format |
---|---|---|---|---|---|---|---|
Runway | Text-to-video, image-to-video, video-to-video | 4 sec | Yes | Yes | Yes | Motion brush, upscale | Website |
Pika | Text-to-video, image-to-video | 3 sec | Yes | Yes | Yes | Modify region, expand canvas, upscale | Website |
Genmo | Text-to-video, image-to-video | 6 sec | No | Yes | Yes | FX presets | Website |
Kaiber | Text-to-video, image-to-video, video-to-video | 16 sec | No | No | No | Sync to music | Website |
Stability | Image-to-video | 4 sec | No | No | Yes | WebsiteLocal model, SDK | |
Zeroscope | Text-to-video | 3 sec | No | No | No | Local model | |
ModelScope | Text-to-video | 3 sec | No | No | No | Local model | |
Animate Diff | Text-to-video, image-to-video, video-to-video | 3 sec | No | No | No | Local model | |
Morph | Text-to-video | 3 sec | No | No | No | Discord bot | |
Hotshot | Text-to-video | 2 sec | No | No | No | Website | |
Moonvalley | Text-to-video, image-to-video | 3 sec | No | Yes | No | Discord bot | |
Deforum | Text-to-video | 14 sec | No | Yes | No | FX presets | Discord bot |
Leonardo | Image-to-video | 4 sec | No | No | Yes | Website | |
Assistive | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Neural Frames | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Sync to music | Website |
MagicHour | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Face swap, sync to music | Website |
Vispunk | Text-to-video | 3 sec | No | Yes | No | Website | |
Decohere | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Domo Al | Image-to-video, video-to-video | 3 sec | No | No | Yes | Discord bot |
Orang-orang berbicara tentang Sora di x.
SoraAI by OpenAI is wild.
— Alamin (@iam_chonchol) February 18, 2024
These are 100% generated only from text and take just 1 minute 🤯
10 wild examples ( 2nd is WOW ) pic.twitter.com/NLetbJVa2v
If you think OpenAI Sora is a creative toy like DALLE, ... think again. Sora is a data-driven physics engine. It is a simulation of many worlds, real or fantastical. The simulator learns intricate rendering, "intuitive" physics, long-horizon reasoning, and semantic grounding, all… pic.twitter.com/pRuiXhUqYR
— Jim Fan (@DrJimFan) February 15, 2024
"this close-up shot of a futuristic cybernetic german shepherd showcases its striking brown and black fur..."
— Bill Peebles (@billpeeb) February 18, 2024
Video generated by Sora. pic.twitter.com/Bopbl0yv0Y
Sora and Stable Video, text to video compare. pic.twitter.com/pZzSeSXPtN
— Retropunk (@RetropunkAI) February 17, 2024
OpenAI's Sora is the most advanced text-to-video tool yet. 💡
— Escher (@Escher_AI) February 16, 2024
It can generate compellingly realistic characters, create multiple dynamic shots in a single video, with accurate details of both subjects and background.
Here's the 10 best generations so far
🧵👇 pic.twitter.com/FHp0cxt0Ll
OpenAI's Sora is going to change marketing forever, enabling anyone to unleash his inner creativity.
— William Briot (@WilliamBriot) February 15, 2024
Check this 100% AI-generated video of Mammoth generated with the new "text-to-video" OpenAI model: pic.twitter.com/DcDGPjpBXC
"a photorealistic video of a butterfly that can swim navigating underwater through a beautiful coral reef"
— Tim Brooks (@_tim_brooks) February 17, 2024
Video generated by Sora pic.twitter.com/nebCKLa09U
Another Sora video, Sora can generate multiple videos side-by-side simultaneously.
— 🅱️WhiteAfricanSpaceJesus (@zespacejesus) February 18, 2024
This is a single video sample from Sora. It is not stitched together; Sora decided it wanted to have five different viewpoints all at once! pic.twitter.com/q2rfxh61CQ
Sora can also generate stories involving a sequence of events, although it's far from perfect.
— Bill Peebles (@billpeeb) February 17, 2024
For this video, I asked that a golden retriever and samoyed should walk through NYC, then a taxi should stop to let the dogs pass a crosswalk, then they should walk past a pretzel and… pic.twitter.com/OhqVFqR5vA
https://t.co/uCuhUPv51N pic.twitter.com/nej4TIwgaP
— Sam Altman (@sama) February 15, 2024
https://t.co/P26vJHlw06 pic.twitter.com/AW9TfYBu3b
— Sam Altman (@sama) February 15, 2024
https://t.co/rPqToLo6J3 pic.twitter.com/nPPH2bP6IZ
— Sam Altman (@sama) February 15, 2024
https://t.co/WJQCMEH9QG pic.twitter.com/Qa51e18Vph
— Sam Altman (@sama) February 15, 2024
a wizard wearing a pointed hat and a blue robe with white stars casting a spell that shoots lightning from his hand and holding an old tome in his other hand
— biden or buster (@willofdoug) February 15, 2024
FAQ
Sora adalah model AI yang dikembangkan oleh OpenAI yang dapat membuat adegan video realistis dan imajinatif dari instruksi teks. Ini dirancang untuk mensimulasikan dunia fisik dalam gerakan, menghasilkan video hingga satu menit lamanya sambil menjaga kualitas visual dan mematuhi instruksi pengguna.
Sora adalah model difusi yang dimulai dengan video yang menyerupai noise statis dan secara bertahap mengubahnya dengan menghilangkan noise selama beberapa langkah. Ini menggunakan arsitektur transformer, mirip dengan model GPT, dan mewakili video dan gambar sebagai kumpulan unit data yang lebih kecil yang disebut patch.
Sora dapat menghasilkan berbagai jenis video, termasuk adegan kompleks dengan beberapa karakter, jenis gerakan tertentu, dan detail yang akurat dari subjek dan latar belakang. Ini juga dapat mengambil gambar diam yang ada dan menganimasikannya, atau memperpanjang video yang ada dengan mengisi bingkai yang hilang.
Sora mungkin kesulitan dalam mensimulasikan fisika dari adegan kompleks secara akurat, memahami contoh-contoh tertentu dari sebab dan akibat, dan menjaga detail spasial dari waktu ke waktu. Terkadang dapat menciptakan gerakan yang tidak mungkin secara fisik atau membingungkan detail spasial.
OpenAI bekerja sama dengan tim red team untuk menguji model secara adversarial dan sedang membangun alat untuk mendeteksi konten yang menyesatkan. Mereka berencana untuk menyertakan metadata C2PA di masa depan dan memanfaatkan metode keamanan yang sudah ada dari produk lain mereka, seperti klasifikasi teks dan klasifikasi gambar.
Sora saat ini tersedia untuk tim merah untuk menilai area-area kritis yang berpotensi merugikan atau berisiko dan untuk seniman visual, desainer, dan pembuat film untuk umpan balik tentang bagaimana memajukan model untuk para profesional kreatif.
Jika Anda seorang profesional kreatif, Anda dapat mengajukan akses ke Sora melalui OpenAI. Setelah diizinkan akses, Anda dapat menggunakan model ini untuk menghasilkan video berdasarkan petunjuk teks Anda, meningkatkan proyek kreatif Anda dengan adegan yang unik dan imajinatif.
Sora berfungsi sebagai dasar untuk model-model yang dapat memahami dan mensimulasikan dunia nyata, yang OpenAI percaya merupakan tonggak penting menuju pencapaian Kecerdasan Buatan Umum (AGI).
Sora memiliki pemahaman yang mendalam tentang bahasa, memungkinkannya untuk menginterpretasikan teks dengan akurat dan menghasilkan karakter dan adegan yang menarik yang mengekspresikan emosi yang hidup. Ia dapat membuat beberapa tembakan dalam satu video sambil menjaga karakter dan gaya visual yang konsisten.
Sora menggunakan arsitektur transformer, mirip dengan model GPT, dan mewakili video dan gambar sebagai kumpulan unit data yang lebih kecil yang disebut sebagai patch. Penggabungan representasi data ini memungkinkan model dilatih pada berbagai data visual yang lebih luas.
Dengan memberikan model wawasan dari banyak bingkai sekaligus, Sora dapat memastikan bahwa subjek tetap konsisten bahkan ketika mereka keluar dari pandangan sementara.
Sora menggunakan teknik recaptioning dari DALL·E 3, yang melibatkan pembuatan keterangan yang sangat deskriptif untuk data pelatihan visual. Ini membantu model untuk lebih setia mengikuti instruksi teks pengguna dalam video yang dihasilkan.
OpenAI berencana untuk mengambil beberapa langkah keamanan sebelum mengintegrasikan Sora ke dalam produk-produknya, termasuk pengujian adversarial, pengembangan klasifikasi deteksi, dan memanfaatkan metode keamanan yang sudah ada dari produk lain seperti DALL·E 3.
Sora dapat digunakan oleh pembuat film, animator, pengembang game, dan profesional kreatif lainnya untuk menghasilkan konten video, storyboards, atau bahkan untuk membuat prototipe ide dengan cepat dan efisien.
OpenAI aktif berinteraksi dengan pembuat kebijakan, pendidik, dan seniman untuk memahami kekhawatiran dan mengidentifikasi kasus penggunaan teknologi yang positif. Mereka menyadari bahwa meskipun mereka tidak dapat memprediksi semua penggunaan yang bermanfaat atau penyalahgunaan, belajar dari penggunaan dunia nyata sangat penting untuk menciptakan sistem AI yang lebih aman dari waktu ke waktu.
OpenAI memiliki klasifikasi teks yang memeriksa dan menolak masukan teks yang melanggar kebijakan penggunaan, seperti yang meminta kekerasan ekstrem, konten seksual, gambaran kebencian, atau penggunaan kekayaan intelektual tanpa izin.
Sebuah 'model dunia' dalam AI mengacu pada model komputasi yang mensimulasikan dunia fisik dan dinamikanya, memungkinkan AI untuk memahami dan memprediksi bagaimana objek dan entitas berinteraksi di dalamnya. Dalam konteks Sora, ini berarti model telah dilatih untuk menghasilkan video yang tidak hanya mengikuti petunjuk teks tetapi juga mematuhi hukum fisik dan perilaku dunia nyata, seperti gravitasi, gerakan, dan interaksi objek. Kemampuan ini sangat penting untuk menciptakan konten video yang realistis dan koheren dari deskripsi teks.