جرب OpenAI Sora
إنشاء فيديو من النص/الصورة، إنتاج فيديو متكرر، تمديد الفيديو إلى الأمام والخلف
كن أول من يعرف عندما يكون سورا مباشرًا!
حول OpenAI Sora
ما هو سورا
نموذج نص إلى فيديو من OpenAI. يمكن لسورا إنتاج مقاطع فيديو تصل إلى دقيقة واحدة مع الحفاظ على الجودة البصرية والالتزام بتعليمات النص المستخدم.
هدف سورا
تعمل سورا كأساس للنماذج التي يمكنها فهم ومحاكاة العالم الحقيقي، ومساعدة الناس في حل المشاكل التي تتطلب تفاعل في العالم الحقيقي.
التقدم
متاح فقط لأعضاء الفريق الأحمر والفنانين البصريين والمصممين وصناع الأفلام المدعوين.
الميزات
دعم العديد من الشخصيات وأنواع الحركة الخاصة والمواضيع وتفاصيل الخلفية بدقة؛ يفهم النماذج كيف تكون هذه الأشياء موجودة في العالم الفعلي، مع عدة لقطات داخل فيديو واحد.
القيود
صعوبة في محاكاة الفيزياء المعقدة، الارتباك في التفاصيل الفضائية، ظهور عفوي للأشياء والشخصيات، نمذجة فيزيائية غير دقيقة وتشوه غير طبيعي للأجسام.
السلامة
تعاون مع الفرق الحمراء لإجراء اختبارات عدائية لتحديد ومعالجة قضايا الأمان في النموذج، بناء أدوات لمساعدة في اكتشاف المحتوى الضار باستخدام مصنفات الكشف وبيانات C2PA.
عروض - تحديث يومي
Prompt
a brown and white border collie stands on a skateboard, wearing sunglasses
Prompt
1st person view taking the longest zip-line in the world through Dubai
Prompt
-
Prompt
-
Prompt
-
Prompt
Style: Modern cinematic realism with vivid visual accents. A summer evening. A group of young friends is gathered on a rooftop, overlooking the glowing city lights. They’re laughing, chatting, and enjoying the vibe with soft music playing in the background. The camera slowly zooms in on a bottle of YOMI beer on the table. Cold condensation drips down the glass, highlighting the vibrant golden hue of the drink. The focus shifts to a hand reaching for the bottle. The camera follows the motion, capturing the crisp sound of the bottle cap popping open. A sip. A deep breath. A smile. In the background, a voice speaks: ‘YOMI — the taste of the moment. Capture your inspiration.’ Final scene: A bottle of YOMI stands against the backdrop of a setting sun, its golden light refracting through the beer. The brand logo and tagline appear on screen: ‘YOMI. The time of your story.
Prompt
The camera follows behind a white vintage SUV with a black roof rack as it speeds up a steep dirt road surrounded by pine trees on a steep mountain slope, dust kicks up from its tires, the sunlight shines on the SUV as it speeds along the dirt road, casting a warm glow over the scene
Prompt
POV, ACTION SHOTS, JUMPCUTS, Montage,, tracking shot, from the side hyperspeed, 30x speed, cinematic atmosphere, person having a futuristic neon beachpunk in punkexosuit form around them, suiting up, glow and light, Phanto-Cinematic still, beachpunk gigadream, kodak etkar 100, hypersurrealist retrowave religiouscience fiction, Southern California, emocore, hyperfuturistic, beachpunk ISO: T2.8, compression: ARRIRAW, lighting_conditions: ultraviolet blacklight, backlit,
Prompt
Close-up shot of a freeride skier carving through deep, untouched powder snow during a vibrant sunset in the Alps. The camera starts low, tracking alongside the skier as they make a powerful turn, sending a spray of fine snow into the air. The spray catches the warm golden-pink light of the setting sun, creating a stunning glow and sparkling reflections. The camera then pans upward and slightly rotates, revealing the majestic alpine peaks bathed in the sunset’s hues. The skier continues gracefully downhill, leaving a glowing trail of light and snow in their wake as the scene fades into the serene mountain landscape.
Prompt
An elegant scene set in Egypt featuring a female anthropomorphic fox character. She has vibrant red-orange fur and vivid green eyes, posing gracefully near ancient Egyptian ruins with the iconic pyramids in the background. She is wearing a flowing, semi-transparent, culturally inspired robe with golden patterns. The setting includes sandy terrain, scattered palm trees, and hints of ancient stone structures adorned with hieroglyphics. The sky is clear, and the sun casts a warm glow over the scene, emphasizing the mystique of the Egyptian desert landscape.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Other AI video products
Company | Generation Type | Max Length | Extend? | Camera Controls? (zoom, pan) | Motion Control? (amount) | Other Features | Format |
---|---|---|---|---|---|---|---|
Runway | Text-to-video, image-to-video, video-to-video | 4 sec | Yes | Yes | Yes | Motion brush, upscale | Website |
Pika | Text-to-video, image-to-video | 3 sec | Yes | Yes | Yes | Modify region, expand canvas, upscale | Website |
Genmo | Text-to-video, image-to-video | 6 sec | No | Yes | Yes | FX presets | Website |
Kaiber | Text-to-video, image-to-video, video-to-video | 16 sec | No | No | No | Sync to music | Website |
Stability | Image-to-video | 4 sec | No | No | Yes | WebsiteLocal model, SDK | |
Zeroscope | Text-to-video | 3 sec | No | No | No | Local model | |
ModelScope | Text-to-video | 3 sec | No | No | No | Local model | |
Animate Diff | Text-to-video, image-to-video, video-to-video | 3 sec | No | No | No | Local model | |
Morph | Text-to-video | 3 sec | No | No | No | Discord bot | |
Hotshot | Text-to-video | 2 sec | No | No | No | Website | |
Moonvalley | Text-to-video, image-to-video | 3 sec | No | Yes | No | Discord bot | |
Deforum | Text-to-video | 14 sec | No | Yes | No | FX presets | Discord bot |
Leonardo | Image-to-video | 4 sec | No | No | Yes | Website | |
Assistive | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Neural Frames | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Sync to music | Website |
MagicHour | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Face swap, sync to music | Website |
Vispunk | Text-to-video | 3 sec | No | Yes | No | Website | |
Decohere | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Domo Al | Image-to-video, video-to-video | 3 sec | No | No | Yes | Discord bot |
الناس يتحدثون عن سورا على x
SoraAI by OpenAI is wild.
— Alamin (@iam_chonchol) February 18, 2024
These are 100% generated only from text and take just 1 minute 🤯
10 wild examples ( 2nd is WOW ) pic.twitter.com/NLetbJVa2v
If you think OpenAI Sora is a creative toy like DALLE, ... think again. Sora is a data-driven physics engine. It is a simulation of many worlds, real or fantastical. The simulator learns intricate rendering, "intuitive" physics, long-horizon reasoning, and semantic grounding, all… pic.twitter.com/pRuiXhUqYR
— Jim Fan (@DrJimFan) February 15, 2024
"this close-up shot of a futuristic cybernetic german shepherd showcases its striking brown and black fur..."
— Bill Peebles (@billpeeb) February 18, 2024
Video generated by Sora. pic.twitter.com/Bopbl0yv0Y
Sora and Stable Video, text to video compare. pic.twitter.com/pZzSeSXPtN
— Retropunk (@RetropunkAI) February 17, 2024
OpenAI's Sora is the most advanced text-to-video tool yet. 💡
— Escher (@Escher_AI) February 16, 2024
It can generate compellingly realistic characters, create multiple dynamic shots in a single video, with accurate details of both subjects and background.
Here's the 10 best generations so far
🧵👇 pic.twitter.com/FHp0cxt0Ll
OpenAI's Sora is going to change marketing forever, enabling anyone to unleash his inner creativity.
— William Briot (@WilliamBriot) February 15, 2024
Check this 100% AI-generated video of Mammoth generated with the new "text-to-video" OpenAI model: pic.twitter.com/DcDGPjpBXC
"a photorealistic video of a butterfly that can swim navigating underwater through a beautiful coral reef"
— Tim Brooks (@_tim_brooks) February 17, 2024
Video generated by Sora pic.twitter.com/nebCKLa09U
Another Sora video, Sora can generate multiple videos side-by-side simultaneously.
— 🅱️WhiteAfricanSpaceJesus (@zespacejesus) February 18, 2024
This is a single video sample from Sora. It is not stitched together; Sora decided it wanted to have five different viewpoints all at once! pic.twitter.com/q2rfxh61CQ
Sora can also generate stories involving a sequence of events, although it's far from perfect.
— Bill Peebles (@billpeeb) February 17, 2024
For this video, I asked that a golden retriever and samoyed should walk through NYC, then a taxi should stop to let the dogs pass a crosswalk, then they should walk past a pretzel and… pic.twitter.com/OhqVFqR5vA
https://t.co/uCuhUPv51N pic.twitter.com/nej4TIwgaP
— Sam Altman (@sama) February 15, 2024
https://t.co/P26vJHlw06 pic.twitter.com/AW9TfYBu3b
— Sam Altman (@sama) February 15, 2024
https://t.co/rPqToLo6J3 pic.twitter.com/nPPH2bP6IZ
— Sam Altman (@sama) February 15, 2024
https://t.co/WJQCMEH9QG pic.twitter.com/Qa51e18Vph
— Sam Altman (@sama) February 15, 2024
a wizard wearing a pointed hat and a blue robe with white stars casting a spell that shoots lightning from his hand and holding an old tome in his other hand
— biden or buster (@willofdoug) February 15, 2024
الأسئلة الشائعة
سورا هو نموذج ذكاء اصطناعي تم تطويره بواسطة OpenAI يمكنه إنشاء مشاهد فيديو واقعية وخيالية من تعليمات النص. تم تصميمه لمحاكاة العالم الفيزيائي في الحركة، وإنتاج مقاطع فيديو تصل إلى دقيقة واحدة مع الحفاظ على الجودة البصرية والالتزام بتعليمات المستخدم.
سورا هو نموذج انتشار يبدأ بفيديو يشبه الضوضاء الثابتة ويقوم تدريجياً بتحويله عن طريق إزالة الضوضاء على مراحل عديدة. يستخدم هندسة المحول، مماثلة لنماذج GPT، ويمثل الفيديوهات والصور على شكل مجموعات من وحدات البيانات الأصغر التي تسمى الباتشات.
يمكن لـ Sora إنشاء مجموعة واسعة من مقاطع الفيديو، بما في ذلك المشاهد المعقدة مع شخصيات متعددة، وأنواع معينة من الحركة، وتفاصيل دقيقة للمواضيع والخلفيات. كما يمكنه أيضًا أخذ صورة ثابتة موجودة وتحريكها، أو تمديد فيديو موجود عن طريق ملء الإطارات المفقودة.
قد تواجه سورا صعوبة في محاكاة الفيزياء بدقة في المشاهد المعقدة، وفهم الحالات الخاصة للسبب والنتيجة، والحفاظ على التفاصيل المكانية مع مرور الوقت. قد تخلق أحيانًا حركة غير ممكنة فيزيائيًا أو تخلط بين التفاصيل المكانية.
تعمل OpenAI مع red teamers لاختبار النموذج بشكل عدائي وتقوم ببناء أدوات لاكتشاف المحتوى المضلل. يخططون لتضمين بيانات الـ C2PA في المستقبل ويستفيدون من الأساليب الأمانية الحالية من منتجاتهم الأخرى، مثل مصنفات النصوص ومصنفات الصور.
سورا متاح حاليًا لفرق الاختبار الحمراء لتقييم المجالات الحرجة للأضرار أو المخاطر وللفنانين البصريين والمصممين وصناع الأفلام للحصول على تغذية راجعة حول كيفية تطوير النموذج للمحترفين الإبداعيين.
إذا كنت محترفًا إبداعيًا، يمكنك التقديم للحصول على وصول إلى سورا من خلال OpenAI. بمجرد منح الوصول، يمكنك استخدام النموذج لإنشاء مقاطع فيديو استنادًا إلى تعليمات نصك، معززًا مشاريعك الإبداعية بمشاهد فريدة وخيالية.
تعمل سورا كأساس للنماذج التي يمكنها فهم ومحاكاة العالم الحقيقي، والذي تعتقد شركة OpenAI أنه خطوة هامة نحو تحقيق الذكاء الاصطناعي العام (AGI).
سورا لديها فهم عميق للغة، مما يمكنها من تفسير نصوص النص بدقة وإنشاء شخصيات ومشاهد جذابة تعبر عن عواطف حية. يمكنها إنشاء عدة لقطات داخل فيديو واحد مع الحفاظ على استمرارية الشخصيات والأسلوب البصري.
يستخدم سورا بنية محولة، مشابهة لنماذج GPT، ويمثل مقاطع الفيديو والصور على شكل مجموعات من وحدات البيانات الأصغر التي تسمى الباتشات. هذا التوحيد في تمثيل البيانات يسمح للنموذج بأن يتم تدريبه على مجموعة أوسع من البيانات البصرية.
من خلال منح النموذج رؤية لعدة إطارات في نفس الوقت، يمكن لسورا التأكد من أن المواضيع تظل ثابتة حتى عندما تختفي مؤقتًا..
تستخدم سورا تقنية إعادة التسمية من DALL·E 3، والتي تتضمن إنشاء تسميات وصفية عالية لبيانات التدريب البصرية. يساعد هذا النموذج على اتباع تعليمات النص المستخدم بشكل أدق في الفيديوهات المولدة.
تخطط OpenAI لاتخاذ عدة خطوات أمان قبل دمج سورا في منتجاتها، بما في ذلك الاختبار العدائي، وتطوير مصنفات الكشف، واستغلال الأساليب الأمان الحالية من منتجات أخرى مثل DALL·E 3.
يمكن استخدام سورا من قبل صناع الأفلام والمحركين ومطوري الألعاب والمحترفين الإبداعيين الآخرين لإنتاج محتوى فيديو، ورسوم متحركة، وحتى لتصميم الأفكار بسرعة وكفاءة.
تشارك OpenAI نشطًا مع صناع القرار والمربين والفنانين لفهم المخاوف وتحديد حالات الاستخدام الإيجابية للتكنولوجيا. إنهم يعترفون بأنهم لا يمكنهم التنبؤ بجميع الاستخدامات المفيدة أو السوء، وأن تعلمهم من استخدام العالم الحقيقي أمر حاسم لإنشاء أنظمة AI أكثر أمانًا مع مرور الوقت.
لدى OpenAI مصنفات نصية تفحص وترفض استفسارات النصوص التي تنتهك سياسات الاستخدام، مثل تلك التي تطلب العنف الشديد أو المحتوى الجنسي أو الصور الكراهية أو الاستخدام غير المصرح به للملكية الفكرية.
نموذج العالم في الذكاء الاصطناعي يشير إلى نموذج حوسبة يحاكي العالم الفيزيائي ودينامياته، مما يتيح للذكاء الاصطناعي فهم وتوقع كيفية تفاعل الأشياء والكيانات ضمنه. في سياق سورا، يعني ذلك أن النموذج قد تم تدريبه لإنتاج مقاطع فيديو لا تتبع فقط التعليمات النصية ولكن أيضًا تلتزم بالقوانين الفيزيائية والسلوكيات في العالم الحقيقي، مثل الجاذبية والحركة وتفاعل الأجسام. هذه القدرة أساسية لإنشاء محتوى فيديو واقعي ومتماسك من الوصف النصي.