Thử nghiệm OpenAI Sora
Tạo video từ văn bản/hình ảnh, tạo video lặp lại, mở rộng video về phía trước và phía sau
Hãy là người đầu tiên biết khi Sora hoạt động!
Về OpenAI Sora
Sora là gì
Mô hình văn bản-sang-video của OpenAI. Sora có thể tạo ra các video có độ dài lên đến một phút trong khi duy trì chất lượng hình ảnh và tuân thủ theo hướng dẫn văn bản của người dùng.
Mục tiêu của Sora
Sora phục vụ như một nền tảng cho các mô hình có thể hiểu và mô phỏng thế giới thực, giúp mọi người giải quyết các vấn đề đòi hỏi tương tác thế giới thực.
Tiến triển
Chỉ dành cho đội Red Team và các nghệ sĩ hình ảnh, nhà thiết kế và nhà làm phim được mời tham gia.
Tính năng
Hỗ trợ nhiều nhân vật, loại hình cụ thể, chủ đề và chi tiết nền với độ chính xác; Các mô hình hiểu được cách những thứ này tồn tại trong thế giới vật lý, nhiều cảnh trong một video duy nhất.
Hạn chế
Khó khăn trong việc mô phỏng chính xác vật lý phức tạp, Sự lẫn lộn về chi tiết không gian, Sự xuất hiện tự nhiên của các đối tượng và nhân vật, Mô hình vật lý không chính xác và biến dạng đối tượng không tự nhiên.
An toàn
Hợp tác với các nhóm đỏ để tiến hành kiểm tra đối địch để xác định và giải quyết các vấn đề bảo mật trong mô hình, Xây dựng các công cụ để giúp phát hiện nội dung đánh lừa bằng cách sử dụng bộ phân loại phát hiện và siêu dữ liệu C2PA.
Trưng bày - cập nhật hàng ngày
Prompt
a brown and white border collie stands on a skateboard, wearing sunglasses
Prompt
1st person view taking the longest zip-line in the world through Dubai
Prompt
-
Prompt
-
Prompt
-
Prompt
Style: Modern cinematic realism with vivid visual accents. A summer evening. A group of young friends is gathered on a rooftop, overlooking the glowing city lights. They’re laughing, chatting, and enjoying the vibe with soft music playing in the background. The camera slowly zooms in on a bottle of YOMI beer on the table. Cold condensation drips down the glass, highlighting the vibrant golden hue of the drink. The focus shifts to a hand reaching for the bottle. The camera follows the motion, capturing the crisp sound of the bottle cap popping open. A sip. A deep breath. A smile. In the background, a voice speaks: ‘YOMI — the taste of the moment. Capture your inspiration.’ Final scene: A bottle of YOMI stands against the backdrop of a setting sun, its golden light refracting through the beer. The brand logo and tagline appear on screen: ‘YOMI. The time of your story.
Prompt
The camera follows behind a white vintage SUV with a black roof rack as it speeds up a steep dirt road surrounded by pine trees on a steep mountain slope, dust kicks up from its tires, the sunlight shines on the SUV as it speeds along the dirt road, casting a warm glow over the scene
Prompt
POV, ACTION SHOTS, JUMPCUTS, Montage,, tracking shot, from the side hyperspeed, 30x speed, cinematic atmosphere, person having a futuristic neon beachpunk in punkexosuit form around them, suiting up, glow and light, Phanto-Cinematic still, beachpunk gigadream, kodak etkar 100, hypersurrealist retrowave religiouscience fiction, Southern California, emocore, hyperfuturistic, beachpunk ISO: T2.8, compression: ARRIRAW, lighting_conditions: ultraviolet blacklight, backlit,
Prompt
Close-up shot of a freeride skier carving through deep, untouched powder snow during a vibrant sunset in the Alps. The camera starts low, tracking alongside the skier as they make a powerful turn, sending a spray of fine snow into the air. The spray catches the warm golden-pink light of the setting sun, creating a stunning glow and sparkling reflections. The camera then pans upward and slightly rotates, revealing the majestic alpine peaks bathed in the sunset’s hues. The skier continues gracefully downhill, leaving a glowing trail of light and snow in their wake as the scene fades into the serene mountain landscape.
Prompt
An elegant scene set in Egypt featuring a female anthropomorphic fox character. She has vibrant red-orange fur and vivid green eyes, posing gracefully near ancient Egyptian ruins with the iconic pyramids in the background. She is wearing a flowing, semi-transparent, culturally inspired robe with golden patterns. The setting includes sandy terrain, scattered palm trees, and hints of ancient stone structures adorned with hieroglyphics. The sky is clear, and the sun casts a warm glow over the scene, emphasizing the mystique of the Egyptian desert landscape.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Other AI video products
Company | Generation Type | Max Length | Extend? | Camera Controls? (zoom, pan) | Motion Control? (amount) | Other Features | Format |
---|---|---|---|---|---|---|---|
Runway | Text-to-video, image-to-video, video-to-video | 4 sec | Yes | Yes | Yes | Motion brush, upscale | Website |
Pika | Text-to-video, image-to-video | 3 sec | Yes | Yes | Yes | Modify region, expand canvas, upscale | Website |
Genmo | Text-to-video, image-to-video | 6 sec | No | Yes | Yes | FX presets | Website |
Kaiber | Text-to-video, image-to-video, video-to-video | 16 sec | No | No | No | Sync to music | Website |
Stability | Image-to-video | 4 sec | No | No | Yes | WebsiteLocal model, SDK | |
Zeroscope | Text-to-video | 3 sec | No | No | No | Local model | |
ModelScope | Text-to-video | 3 sec | No | No | No | Local model | |
Animate Diff | Text-to-video, image-to-video, video-to-video | 3 sec | No | No | No | Local model | |
Morph | Text-to-video | 3 sec | No | No | No | Discord bot | |
Hotshot | Text-to-video | 2 sec | No | No | No | Website | |
Moonvalley | Text-to-video, image-to-video | 3 sec | No | Yes | No | Discord bot | |
Deforum | Text-to-video | 14 sec | No | Yes | No | FX presets | Discord bot |
Leonardo | Image-to-video | 4 sec | No | No | Yes | Website | |
Assistive | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Neural Frames | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Sync to music | Website |
MagicHour | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Face swap, sync to music | Website |
Vispunk | Text-to-video | 3 sec | No | Yes | No | Website | |
Decohere | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Domo Al | Image-to-video, video-to-video | 3 sec | No | No | Yes | Discord bot |
Mọi người nói về Sora trên x
SoraAI by OpenAI is wild.
— Alamin (@iam_chonchol) February 18, 2024
These are 100% generated only from text and take just 1 minute 🤯
10 wild examples ( 2nd is WOW ) pic.twitter.com/NLetbJVa2v
If you think OpenAI Sora is a creative toy like DALLE, ... think again. Sora is a data-driven physics engine. It is a simulation of many worlds, real or fantastical. The simulator learns intricate rendering, "intuitive" physics, long-horizon reasoning, and semantic grounding, all… pic.twitter.com/pRuiXhUqYR
— Jim Fan (@DrJimFan) February 15, 2024
"this close-up shot of a futuristic cybernetic german shepherd showcases its striking brown and black fur..."
— Bill Peebles (@billpeeb) February 18, 2024
Video generated by Sora. pic.twitter.com/Bopbl0yv0Y
Sora and Stable Video, text to video compare. pic.twitter.com/pZzSeSXPtN
— Retropunk (@RetropunkAI) February 17, 2024
OpenAI's Sora is the most advanced text-to-video tool yet. 💡
— Escher (@Escher_AI) February 16, 2024
It can generate compellingly realistic characters, create multiple dynamic shots in a single video, with accurate details of both subjects and background.
Here's the 10 best generations so far
🧵👇 pic.twitter.com/FHp0cxt0Ll
OpenAI's Sora is going to change marketing forever, enabling anyone to unleash his inner creativity.
— William Briot (@WilliamBriot) February 15, 2024
Check this 100% AI-generated video of Mammoth generated with the new "text-to-video" OpenAI model: pic.twitter.com/DcDGPjpBXC
"a photorealistic video of a butterfly that can swim navigating underwater through a beautiful coral reef"
— Tim Brooks (@_tim_brooks) February 17, 2024
Video generated by Sora pic.twitter.com/nebCKLa09U
Another Sora video, Sora can generate multiple videos side-by-side simultaneously.
— 🅱️WhiteAfricanSpaceJesus (@zespacejesus) February 18, 2024
This is a single video sample from Sora. It is not stitched together; Sora decided it wanted to have five different viewpoints all at once! pic.twitter.com/q2rfxh61CQ
Sora can also generate stories involving a sequence of events, although it's far from perfect.
— Bill Peebles (@billpeeb) February 17, 2024
For this video, I asked that a golden retriever and samoyed should walk through NYC, then a taxi should stop to let the dogs pass a crosswalk, then they should walk past a pretzel and… pic.twitter.com/OhqVFqR5vA
https://t.co/uCuhUPv51N pic.twitter.com/nej4TIwgaP
— Sam Altman (@sama) February 15, 2024
https://t.co/P26vJHlw06 pic.twitter.com/AW9TfYBu3b
— Sam Altman (@sama) February 15, 2024
https://t.co/rPqToLo6J3 pic.twitter.com/nPPH2bP6IZ
— Sam Altman (@sama) February 15, 2024
https://t.co/WJQCMEH9QG pic.twitter.com/Qa51e18Vph
— Sam Altman (@sama) February 15, 2024
a wizard wearing a pointed hat and a blue robe with white stars casting a spell that shoots lightning from his hand and holding an old tome in his other hand
— biden or buster (@willofdoug) February 15, 2024
Câu hỏi thường gặp
Sora là một mô hình AI được phát triển bởi OpenAI có thể tạo ra các cảnh video thực tế và sáng tạo từ hướng dẫn văn bản. Nó được thiết kế để mô phỏng thế giới vật lý trong chuyển động, tạo ra các video lên đến một phút trong khi duy trì chất lượng hình ảnh và tuân thủ theo yêu cầu của người dùng.
Sora là một mô hình truyền播 bắt đầu bằng một video giống như tạp âm và dần dần biến đổi nó bằng cách loại bỏ tạp âm qua nhiều bước. Nó sử dụng kiến trúc transformer, tương tự như các mô hình GPT, và biểu diễn video và hình ảnh dưới dạng các bộ dữ liệu nhỏ hơn được gọi là các patch.
Sora có thể tạo ra một loạt các video, bao gồm các cảnh phức tạp với nhiều nhân vật, các loại chuyển động cụ thể và chi tiết chính xác về chủ đề và nền. Nó cũng có thể lấy một hình ảnh tĩnh hiện có và tạo hoạt ảnh cho nó, hoặc mở rộng một video hiện có bằng cách điền vào các khung hình thiếu.
Sora có thể gặp khó khăn trong việc mô phỏng chính xác vật lý của các cảnh phức tạp, hiểu rõ các trường hợp cụ thể của nguyên nhân và kết quả, và duy trì chi tiết không gian theo thời gian. Đôi khi nó có thể tạo ra chuyển động không hợp lý về mặt vật lý hoặc lẫn lộn chi tiết không gian.
OpenAI đang hợp tác với nhóm red teamers để thử nghiệm theo hướng đối địch mô hình và đang xây dựng các công cụ để phát hiện nội dung gây hiểu lầm. Họ dự định bao gồm siêu dữ liệu C2PA trong tương lai và đang tận dụng các phương pháp an toàn hiện có từ các sản phẩm khác của họ, như bộ phân loại văn bản và bộ phân loại hình ảnh.
Sora hiện đang sẵn có cho các nhóm red team để đánh giá các khu vực quan trọng về thiệt hại hoặc rủi ro và cho các nghệ sĩ hình ảnh, nhà thiết kế và nhà làm phim để nhận phản hồi về cách tiến bộ của mô hình cho các chuyên gia sáng tạo.
Nếu bạn là một chuyên gia sáng tạo, bạn có thể đăng ký truy cập vào Sora thông qua OpenAI. Khi được cấp quyền truy cập, bạn có thể sử dụng mô hình để tạo ra video dựa trên các lời nhắc văn bản của bạn, nâng cao dự án sáng tạo của bạn với các cảnh độc đáo và sáng tạo.
Sora đóng vai trò là nền tảng cho các mô hình có thể hiểu và mô phỏng thế giới thực, mà OpenAI tin rằng đó là một bước quan trọng đến việc đạt được Trí tuệ Nhân tạo Tổng quát (AGI).
Sora có hiểu biết sâu rộng về ngôn ngữ, giúp nó dịch chính xác các lời nhắc văn bản và tạo ra những nhân vật và cảnh quay hấp dẫn thể hiện cảm xúc sống động. Nó có thể tạo ra nhiều cảnh quay trong một video duy nhất trong khi duy trì nhân vật và phong cách hình ảnh nhất quán.
Sora sử dụng một kiến trúc biến áp, tương tự như các mô hình GPT, và biểu diễn video và hình ảnh dưới dạng các bộ dữ liệu nhỏ hơn được gọi là các patch. Việc thống nhất biểu diễn dữ liệu này cho phép mô hình được huấn luyện trên một loạt rộng hơn các dữ liệu hình ảnh.
Bằng cách cho mô hình nhìn thấy nhiều khung hình cùng một lúc, Sora có thể đảm bảo rằng các chủ thể vẫn đồng nhất ngay cả khi chúng tạm thời ra khỏi tầm nhìn.
Sora sử dụng kỹ thuật tái chú thích từ DALL·E 3, bao gồm việc tạo ra các chú thích rất mô tả cho dữ liệu huấn luyện hình ảnh. Điều này giúp mô hình tuân thủ chính xác hơn các hướng dẫn văn bản của người dùng trong các video được tạo ra.
OpenAI đang lên kế hoạch thực hiện một số biện pháp an toàn trước khi tích hợp Sora vào các sản phẩm của mình, bao gồm kiểm tra đối địch, phát triển bộ phân loại phát hiện, và tận dụng các phương pháp an toàn hiện có từ các sản phẩm khác như DALL·E 3.
Sora có thể được sử dụng bởi các nhà làm phim, nhà hoạt hình, nhà phát triển game và các chuyên gia sáng tạo khác để tạo ra nội dung video, bản phác thảo câu chuyện, hoặc thậm chí để tạo ra ý tưởng nguyên mẫu một cách nhanh chóng và hiệu quả.
OpenAI đang tích cực tương tác với các nhà hoạch định chính sách, giáo viên và nghệ sĩ để hiểu rõ các mối quan ngại và xác định các trường hợp sử dụng tích cực cho công nghệ này. Họ nhận thức rằng trong khi họ không thể dự đoán tất cả các trường hợp sử dụng có lợi hoặc lạm dụng, việc học từ việc sử dụng trong thực tế là quan trọng để tạo ra các hệ thống AI an toàn hơn theo thời gian.
OpenAI có các bộ phân loại văn bản kiểm tra và từ chối các đề xuất văn bản vi phạm chính sách sử dụng, như yêu cầu về bạo lực cực đoan, nội dung tình dục, hình ảnh căm ghét hoặc vi phạm sử dụng tài sản trí tuệ không được ủy quyền.
Một 'mô hình thế giới' trong trí tuệ nhân tạo đề cập đến một mô hình tính toán mô phỏng thế giới vật lý và động lực của nó, cho phép trí tuệ nhân tạo hiểu và dự đoán cách các đối tượng và thực thể tương tác trong đó. Trong ngữ cảnh của Sora, điều này có nghĩa là mô hình đã được huấn luyện để tạo ra video không chỉ tuân theo các hướng dẫn văn bản mà còn tuân thủ các luật lý và hành vi của thế giới thực, như trọng lực, chuyển động và tương tác vật thể. Khả năng này rất quan trọng để tạo ra nội dung video thực tế và nhất quán từ các mô tả văn bản.