Coba OpenAI Sora
Membuat video dari teks/gambar, menghasilkan video loop, memperpanjang video ke depan dan ke belakang
Jadilah yang pertama tahu ketika Sora sudah aktif!
Tentang OpenAI Sora
Apa itu Sora
Model teks-ke-video OpenAI. Sora dapat menghasilkan video hingga satu menit lamanya sambil menjaga kualitas visual dan kepatuhan pada instruksi teks pengguna.
Tujuan Sora
Sora berfungsi sebagai dasar untuk model-model yang dapat memahami dan mensimulasikan dunia nyata, membantu orang menyelesaikan masalah yang memerlukan interaksi dunia nyata.
Kemajuan
Hanya tersedia untuk tim merah dan seniman visual, desainer, dan pembuat film yang diundang.
Fitur
Mendukung beberapa karakter, jenis gerakan tertentu, subjek, dan detail latar belakang dengan akurasi; Model memahami bagaimana hal-hal ini ada di dunia fisik, beberapa tembakan dalam satu video.
Batasan
Kesulitan dalam mensimulasikan fisika kompleks secara akurat, kebingungan dalam detail spasial, munculnya objek dan karakter secara spontan, pemodelan fisik yang tidak akurat dan deformasi objek yang tidak alami.
Keamanan
Bekerjasama dengan tim merah untuk melakukan uji coba adversarial untuk mengidentifikasi dan menangani masalah keamanan dalam model, Membangun alat untuk membantu mendeteksi konten yang menyesatkan menggunakan klasifikasi deteksi dan metadata C2PA.
Pameran - pembaruan harian
Prompt
-
Prompt
Bubble Dragon
Prompt
Sora generates an imaginary video of the interview.
Prompt
an extreme close up shot of a woman's eye, with her iris appearing as earth
Prompt
fly through tour of a museum with many paintings and sculptures and beautiful works of art in all styles
Prompt
a red panda and a toucan are best friends taking a stroll through santorini during the blue hour
Prompt
a man BASE jumping over tropical hawaii waters. His pet macaw flies alongside him.
Prompt
a dark neon rainforest aglow with fantastical fauna and animals.
Prompt
Close-up of a majestic white dragon with pearlescent, silver-edged scales, icy blue eyes, elegant ivory horns, and misty breath. Focus on detailed facial features and textured scales, set against a softly blurred background.
Prompt
a scuba diver discovers a hidden futuristic shipwreck, with cybernetic marine life and advanced alien technology
Prompt
in a beautifully rendered papercraft world, a steamboat travels across a vast ocean with wispy clouds in the sky. vast grassy hills lie in the distant background, and some sealife is visible near the papercraft ocean's surface
Prompt
cinematic trailer for a group of samoyed puppies learning to become chefs.
Other AI video products
Company | Generation Type | Max Length | Extend? | Camera Controls? (zoom, pan) | Motion Control? (amount) | Other Features | Format |
---|---|---|---|---|---|---|---|
Runway | Text-to-video, image-to-video, video-to-video | 4 sec | Yes | Yes | Yes | Motion brush, upscale | Website |
Pika | Text-to-video, image-to-video | 3 sec | Yes | Yes | Yes | Modify region, expand canvas, upscale | Website |
Genmo | Text-to-video, image-to-video | 6 sec | No | Yes | Yes | FX presets | Website |
Kaiber | Text-to-video, image-to-video, video-to-video | 16 sec | No | No | No | Sync to music | Website |
Stability | Image-to-video | 4 sec | No | No | Yes | WebsiteLocal model, SDK | |
Zeroscope | Text-to-video | 3 sec | No | No | No | Local model | |
ModelScope | Text-to-video | 3 sec | No | No | No | Local model | |
Animate Diff | Text-to-video, image-to-video, video-to-video | 3 sec | No | No | No | Local model | |
Morph | Text-to-video | 3 sec | No | No | No | Discord bot | |
Hotshot | Text-to-video | 2 sec | No | No | No | Website | |
Moonvalley | Text-to-video, image-to-video | 3 sec | No | Yes | No | Discord bot | |
Deforum | Text-to-video | 14 sec | No | Yes | No | FX presets | Discord bot |
Leonardo | Image-to-video | 4 sec | No | No | Yes | Website | |
Assistive | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Neural Frames | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Sync to music | Website |
MagicHour | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Face swap, sync to music | Website |
Vispunk | Text-to-video | 3 sec | No | Yes | No | Website | |
Decohere | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Domo Al | Image-to-video, video-to-video | 3 sec | No | No | Yes | Discord bot |
Orang-orang berbicara tentang Sora di x.
SoraAI by OpenAI is wild.
— Alamin (@iam_chonchol) February 18, 2024
These are 100% generated only from text and take just 1 minute 🤯
10 wild examples ( 2nd is WOW ) pic.twitter.com/NLetbJVa2v
If you think OpenAI Sora is a creative toy like DALLE, ... think again. Sora is a data-driven physics engine. It is a simulation of many worlds, real or fantastical. The simulator learns intricate rendering, "intuitive" physics, long-horizon reasoning, and semantic grounding, all… pic.twitter.com/pRuiXhUqYR
— Jim Fan (@DrJimFan) February 15, 2024
"this close-up shot of a futuristic cybernetic german shepherd showcases its striking brown and black fur..."
— Bill Peebles (@billpeeb) February 18, 2024
Video generated by Sora. pic.twitter.com/Bopbl0yv0Y
Sora and Stable Video, text to video compare. pic.twitter.com/pZzSeSXPtN
— Retropunk (@RetropunkAI) February 17, 2024
OpenAI's Sora is the most advanced text-to-video tool yet. 💡
— Ringfence (@RingfenceAI) February 16, 2024
It can generate compellingly realistic characters, create multiple dynamic shots in a single video, with accurate details of both subjects and background.
Here's the 10 best generations so far
🧵👇 pic.twitter.com/FHp0cxt0Ll
OpenAI's Sora is going to change marketing forever, enabling anyone to unleash his inner creativity.
— William Briot (@WilliamBriot) February 15, 2024
Check this 100% AI-generated video of Mammoth generated with the new "text-to-video" OpenAI model: pic.twitter.com/DcDGPjpBXC
"a photorealistic video of a butterfly that can swim navigating underwater through a beautiful coral reef"
— Tim Brooks (@_tim_brooks) February 17, 2024
Video generated by Sora pic.twitter.com/nebCKLa09U
Another Sora video, Sora can generate multiple videos side-by-side simultaneously.
— 🅱️WhiteAfricanSpaceJesus (@zespacejesus) February 18, 2024
This is a single video sample from Sora. It is not stitched together; Sora decided it wanted to have five different viewpoints all at once! pic.twitter.com/q2rfxh61CQ
Sora can also generate stories involving a sequence of events, although it's far from perfect.
— Bill Peebles (@billpeeb) February 17, 2024
For this video, I asked that a golden retriever and samoyed should walk through NYC, then a taxi should stop to let the dogs pass a crosswalk, then they should walk past a pretzel and… pic.twitter.com/OhqVFqR5vA
https://t.co/uCuhUPv51N pic.twitter.com/nej4TIwgaP
— Sam Altman (@sama) February 15, 2024
https://t.co/P26vJHlw06 pic.twitter.com/AW9TfYBu3b
— Sam Altman (@sama) February 15, 2024
https://t.co/rPqToLo6J3 pic.twitter.com/nPPH2bP6IZ
— Sam Altman (@sama) February 15, 2024
https://t.co/WJQCMEH9QG pic.twitter.com/Qa51e18Vph
— Sam Altman (@sama) February 15, 2024
a wizard wearing a pointed hat and a blue robe with white stars casting a spell that shoots lightning from his hand and holding an old tome in his other hand
— biden or buster (@willofdoug) February 15, 2024
FAQ
Sora adalah model AI yang dikembangkan oleh OpenAI yang dapat membuat adegan video realistis dan imajinatif dari instruksi teks. Ini dirancang untuk mensimulasikan dunia fisik dalam gerakan, menghasilkan video hingga satu menit lamanya sambil menjaga kualitas visual dan mematuhi instruksi pengguna.
Sora adalah model difusi yang dimulai dengan video yang menyerupai noise statis dan secara bertahap mengubahnya dengan menghilangkan noise selama beberapa langkah. Ini menggunakan arsitektur transformer, mirip dengan model GPT, dan mewakili video dan gambar sebagai kumpulan unit data yang lebih kecil yang disebut patch.
Sora dapat menghasilkan berbagai jenis video, termasuk adegan kompleks dengan beberapa karakter, jenis gerakan tertentu, dan detail yang akurat dari subjek dan latar belakang. Ini juga dapat mengambil gambar diam yang ada dan menganimasikannya, atau memperpanjang video yang ada dengan mengisi bingkai yang hilang.
Sora mungkin kesulitan dalam mensimulasikan fisika dari adegan kompleks secara akurat, memahami contoh-contoh tertentu dari sebab dan akibat, dan menjaga detail spasial dari waktu ke waktu. Terkadang dapat menciptakan gerakan yang tidak mungkin secara fisik atau membingungkan detail spasial.
OpenAI bekerja sama dengan tim red team untuk menguji model secara adversarial dan sedang membangun alat untuk mendeteksi konten yang menyesatkan. Mereka berencana untuk menyertakan metadata C2PA di masa depan dan memanfaatkan metode keamanan yang sudah ada dari produk lain mereka, seperti klasifikasi teks dan klasifikasi gambar.
Sora saat ini tersedia untuk tim merah untuk menilai area-area kritis yang berpotensi merugikan atau berisiko dan untuk seniman visual, desainer, dan pembuat film untuk umpan balik tentang bagaimana memajukan model untuk para profesional kreatif.
Jika Anda seorang profesional kreatif, Anda dapat mengajukan akses ke Sora melalui OpenAI. Setelah diizinkan akses, Anda dapat menggunakan model ini untuk menghasilkan video berdasarkan petunjuk teks Anda, meningkatkan proyek kreatif Anda dengan adegan yang unik dan imajinatif.
Sora berfungsi sebagai dasar untuk model-model yang dapat memahami dan mensimulasikan dunia nyata, yang OpenAI percaya merupakan tonggak penting menuju pencapaian Kecerdasan Buatan Umum (AGI).
Sora memiliki pemahaman yang mendalam tentang bahasa, memungkinkannya untuk menginterpretasikan teks dengan akurat dan menghasilkan karakter dan adegan yang menarik yang mengekspresikan emosi yang hidup. Ia dapat membuat beberapa tembakan dalam satu video sambil menjaga karakter dan gaya visual yang konsisten.
Sora menggunakan arsitektur transformer, mirip dengan model GPT, dan mewakili video dan gambar sebagai kumpulan unit data yang lebih kecil yang disebut sebagai patch. Penggabungan representasi data ini memungkinkan model dilatih pada berbagai data visual yang lebih luas.
Dengan memberikan model wawasan dari banyak bingkai sekaligus, Sora dapat memastikan bahwa subjek tetap konsisten bahkan ketika mereka keluar dari pandangan sementara.
Sora menggunakan teknik recaptioning dari DALL·E 3, yang melibatkan pembuatan keterangan yang sangat deskriptif untuk data pelatihan visual. Ini membantu model untuk lebih setia mengikuti instruksi teks pengguna dalam video yang dihasilkan.
OpenAI berencana untuk mengambil beberapa langkah keamanan sebelum mengintegrasikan Sora ke dalam produk-produknya, termasuk pengujian adversarial, pengembangan klasifikasi deteksi, dan memanfaatkan metode keamanan yang sudah ada dari produk lain seperti DALL·E 3.
Sora dapat digunakan oleh pembuat film, animator, pengembang game, dan profesional kreatif lainnya untuk menghasilkan konten video, storyboards, atau bahkan untuk membuat prototipe ide dengan cepat dan efisien.
OpenAI aktif berinteraksi dengan pembuat kebijakan, pendidik, dan seniman untuk memahami kekhawatiran dan mengidentifikasi kasus penggunaan teknologi yang positif. Mereka menyadari bahwa meskipun mereka tidak dapat memprediksi semua penggunaan yang bermanfaat atau penyalahgunaan, belajar dari penggunaan dunia nyata sangat penting untuk menciptakan sistem AI yang lebih aman dari waktu ke waktu.
OpenAI memiliki klasifikasi teks yang memeriksa dan menolak masukan teks yang melanggar kebijakan penggunaan, seperti yang meminta kekerasan ekstrem, konten seksual, gambaran kebencian, atau penggunaan kekayaan intelektual tanpa izin.
Sebuah 'model dunia' dalam AI mengacu pada model komputasi yang mensimulasikan dunia fisik dan dinamikanya, memungkinkan AI untuk memahami dan memprediksi bagaimana objek dan entitas berinteraksi di dalamnya. Dalam konteks Sora, ini berarti model telah dilatih untuk menghasilkan video yang tidak hanya mengikuti petunjuk teks tetapi juga mematuhi hukum fisik dan perilaku dunia nyata, seperti gravitasi, gerakan, dan interaksi objek. Kemampuan ini sangat penting untuk menciptakan konten video yang realistis dan koheren dari deskripsi teks.