Prueba OpenAI Sora
Crear video a partir de texto/imagen, generar video en bucle, extender video hacia adelante y hacia atrás
¡Sé el primero en saber cuándo Sora está en vivo!
Acerca de OpenAI Sora
¿Qué es Sora?
El modelo de texto a video de OpenAI. Sora puede generar videos de hasta un minuto de duración manteniendo la calidad visual y cumpliendo con las instrucciones de texto del usuario.
El objetivo de Sora
Sora sirve como una base para modelos que pueden entender y simular el mundo real, ayudar a las personas a resolver problemas que requieren interacción en el mundo real.
Progreso
Solo disponible para miembros del equipo rojo y artistas visuales, diseñadores y cineastas invitados.
Características
Apoyar múltiples personajes, tipos de movimientos específicos, temas y detalles de fondo con precisión; Los modelos comprenden cómo estas cosas existen en el mundo físico, múltiples tomas dentro de un solo video.
Limitaciones
Dificultad para simular con precisión la física compleja, Confusión de detalles espaciales, aparición espontánea de objetos y personajes, Modelado físico inexacto y deformación no natural de objetos.
Seguridad
Colaborar con equipos rojos para llevar a cabo pruebas adversariales para identificar y abordar problemas de seguridad en el modelo, Construir herramientas para ayudar a detectar contenido engañoso utilizando clasificadores de detección y metadatos de C2PA.
Muestras - actualización diaria
Prompt
a brown and white border collie stands on a skateboard, wearing sunglasses
Prompt
1st person view taking the longest zip-line in the world through Dubai
Prompt
-
Prompt
-
Prompt
-
Prompt
Style: Modern cinematic realism with vivid visual accents. A summer evening. A group of young friends is gathered on a rooftop, overlooking the glowing city lights. They’re laughing, chatting, and enjoying the vibe with soft music playing in the background. The camera slowly zooms in on a bottle of YOMI beer on the table. Cold condensation drips down the glass, highlighting the vibrant golden hue of the drink. The focus shifts to a hand reaching for the bottle. The camera follows the motion, capturing the crisp sound of the bottle cap popping open. A sip. A deep breath. A smile. In the background, a voice speaks: ‘YOMI — the taste of the moment. Capture your inspiration.’ Final scene: A bottle of YOMI stands against the backdrop of a setting sun, its golden light refracting through the beer. The brand logo and tagline appear on screen: ‘YOMI. The time of your story.
Prompt
The camera follows behind a white vintage SUV with a black roof rack as it speeds up a steep dirt road surrounded by pine trees on a steep mountain slope, dust kicks up from its tires, the sunlight shines on the SUV as it speeds along the dirt road, casting a warm glow over the scene
Prompt
POV, ACTION SHOTS, JUMPCUTS, Montage,, tracking shot, from the side hyperspeed, 30x speed, cinematic atmosphere, person having a futuristic neon beachpunk in punkexosuit form around them, suiting up, glow and light, Phanto-Cinematic still, beachpunk gigadream, kodak etkar 100, hypersurrealist retrowave religiouscience fiction, Southern California, emocore, hyperfuturistic, beachpunk ISO: T2.8, compression: ARRIRAW, lighting_conditions: ultraviolet blacklight, backlit,
Prompt
Close-up shot of a freeride skier carving through deep, untouched powder snow during a vibrant sunset in the Alps. The camera starts low, tracking alongside the skier as they make a powerful turn, sending a spray of fine snow into the air. The spray catches the warm golden-pink light of the setting sun, creating a stunning glow and sparkling reflections. The camera then pans upward and slightly rotates, revealing the majestic alpine peaks bathed in the sunset’s hues. The skier continues gracefully downhill, leaving a glowing trail of light and snow in their wake as the scene fades into the serene mountain landscape.
Prompt
An elegant scene set in Egypt featuring a female anthropomorphic fox character. She has vibrant red-orange fur and vivid green eyes, posing gracefully near ancient Egyptian ruins with the iconic pyramids in the background. She is wearing a flowing, semi-transparent, culturally inspired robe with golden patterns. The setting includes sandy terrain, scattered palm trees, and hints of ancient stone structures adorned with hieroglyphics. The sky is clear, and the sun casts a warm glow over the scene, emphasizing the mystique of the Egyptian desert landscape.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Prompt
A stylish woman walks down a Seoul street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
Other AI video products
Company | Generation Type | Max Length | Extend? | Camera Controls? (zoom, pan) | Motion Control? (amount) | Other Features | Format |
---|---|---|---|---|---|---|---|
Runway | Text-to-video, image-to-video, video-to-video | 4 sec | Yes | Yes | Yes | Motion brush, upscale | Website |
Pika | Text-to-video, image-to-video | 3 sec | Yes | Yes | Yes | Modify region, expand canvas, upscale | Website |
Genmo | Text-to-video, image-to-video | 6 sec | No | Yes | Yes | FX presets | Website |
Kaiber | Text-to-video, image-to-video, video-to-video | 16 sec | No | No | No | Sync to music | Website |
Stability | Image-to-video | 4 sec | No | No | Yes | WebsiteLocal model, SDK | |
Zeroscope | Text-to-video | 3 sec | No | No | No | Local model | |
ModelScope | Text-to-video | 3 sec | No | No | No | Local model | |
Animate Diff | Text-to-video, image-to-video, video-to-video | 3 sec | No | No | No | Local model | |
Morph | Text-to-video | 3 sec | No | No | No | Discord bot | |
Hotshot | Text-to-video | 2 sec | No | No | No | Website | |
Moonvalley | Text-to-video, image-to-video | 3 sec | No | Yes | No | Discord bot | |
Deforum | Text-to-video | 14 sec | No | Yes | No | FX presets | Discord bot |
Leonardo | Image-to-video | 4 sec | No | No | Yes | Website | |
Assistive | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Neural Frames | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Sync to music | Website |
MagicHour | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Face swap, sync to music | Website |
Vispunk | Text-to-video | 3 sec | No | Yes | No | Website | |
Decohere | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Domo Al | Image-to-video, video-to-video | 3 sec | No | No | Yes | Discord bot |
La gente habla de Sora en x
SoraAI by OpenAI is wild.
— Alamin (@iam_chonchol) February 18, 2024
These are 100% generated only from text and take just 1 minute 🤯
10 wild examples ( 2nd is WOW ) pic.twitter.com/NLetbJVa2v
If you think OpenAI Sora is a creative toy like DALLE, ... think again. Sora is a data-driven physics engine. It is a simulation of many worlds, real or fantastical. The simulator learns intricate rendering, "intuitive" physics, long-horizon reasoning, and semantic grounding, all… pic.twitter.com/pRuiXhUqYR
— Jim Fan (@DrJimFan) February 15, 2024
"this close-up shot of a futuristic cybernetic german shepherd showcases its striking brown and black fur..."
— Bill Peebles (@billpeeb) February 18, 2024
Video generated by Sora. pic.twitter.com/Bopbl0yv0Y
Sora and Stable Video, text to video compare. pic.twitter.com/pZzSeSXPtN
— Retropunk (@RetropunkAI) February 17, 2024
OpenAI's Sora is the most advanced text-to-video tool yet. 💡
— Escher (@Escher_AI) February 16, 2024
It can generate compellingly realistic characters, create multiple dynamic shots in a single video, with accurate details of both subjects and background.
Here's the 10 best generations so far
🧵👇 pic.twitter.com/FHp0cxt0Ll
OpenAI's Sora is going to change marketing forever, enabling anyone to unleash his inner creativity.
— William Briot (@WilliamBriot) February 15, 2024
Check this 100% AI-generated video of Mammoth generated with the new "text-to-video" OpenAI model: pic.twitter.com/DcDGPjpBXC
"a photorealistic video of a butterfly that can swim navigating underwater through a beautiful coral reef"
— Tim Brooks (@_tim_brooks) February 17, 2024
Video generated by Sora pic.twitter.com/nebCKLa09U
Another Sora video, Sora can generate multiple videos side-by-side simultaneously.
— 🅱️WhiteAfricanSpaceJesus (@zespacejesus) February 18, 2024
This is a single video sample from Sora. It is not stitched together; Sora decided it wanted to have five different viewpoints all at once! pic.twitter.com/q2rfxh61CQ
Sora can also generate stories involving a sequence of events, although it's far from perfect.
— Bill Peebles (@billpeeb) February 17, 2024
For this video, I asked that a golden retriever and samoyed should walk through NYC, then a taxi should stop to let the dogs pass a crosswalk, then they should walk past a pretzel and… pic.twitter.com/OhqVFqR5vA
https://t.co/uCuhUPv51N pic.twitter.com/nej4TIwgaP
— Sam Altman (@sama) February 15, 2024
https://t.co/P26vJHlw06 pic.twitter.com/AW9TfYBu3b
— Sam Altman (@sama) February 15, 2024
https://t.co/rPqToLo6J3 pic.twitter.com/nPPH2bP6IZ
— Sam Altman (@sama) February 15, 2024
https://t.co/WJQCMEH9QG pic.twitter.com/Qa51e18Vph
— Sam Altman (@sama) February 15, 2024
a wizard wearing a pointed hat and a blue robe with white stars casting a spell that shoots lightning from his hand and holding an old tome in his other hand
— biden or buster (@willofdoug) February 15, 2024
Preguntas frecuentesFAQ
Sora es un modelo de IA desarrollado por OpenAI que puede crear escenas de video realistas e imaginativas a partir de instrucciones de texto. Está diseñado para simular el mundo físico en movimiento, generando videos de hasta un minuto de duración mientras mantiene la calidad visual y se adhiere a la indicación del usuario.
Sora es un modelo de difusión que comienza con un video que se asemeja a ruido estático y gradualmente lo transforma eliminando el ruido en muchos pasos. Utiliza una arquitectura de transformador, similar a los modelos GPT, y representa videos e imágenes como colecciones de unidades de datos más pequeñas llamadas parches.
Sora puede generar una amplia gama de videos, incluyendo escenas complejas con múltiples personajes, tipos específicos de movimiento y detalles precisos de sujetos y fondos. También puede tomar una imagen fija existente y animarla, o extender un video existente rellenando los fotogramas faltantes.
Sora puede tener dificultades para simular con precisión la física de escenas complejas, comprender instancias específicas de causa y efecto, y mantener detalles espaciales con el tiempo. A veces puede crear movimientos físicamente implausibles o confundir detalles espaciales.
OpenAI está trabajando con equipos de red teamers para probar adversarialmente el modelo y está construyendo herramientas para detectar contenido engañoso. Planea incluir metadatos de C2PA en el futuro y está aprovechando métodos de seguridad existentes de sus otros productos, como clasificadores de texto y clasificadores de imágenes.
Sora está actualmente disponible para los equipos rojos para evaluar áreas críticas de daños o riesgos y para artistas visuales, diseñadores y cineastas para recibir comentarios sobre cómo avanzar en el modelo para profesionales creativos.
Si eres un profesional creativo, puedes solicitar acceso a Sora a través de OpenAI. Una vez que se te conceda acceso, podrás utilizar el modelo para generar videos basados en tus indicaciones de texto, mejorando tus proyectos creativos con escenas únicas e imaginativas.
Sora sirve como una base para modelos que pueden entender y simular el mundo real, lo cual OpenAI considera un hito importante hacia la consecución de la Inteligencia Artificial General (AGI).
Sora tiene un profundo entendimiento del lenguaje, lo que le permite interpretar con precisión las indicaciones de texto y generar personajes y escenas convincentes que expresan emociones vibrantes. Puede crear múltiples tomas dentro de un solo video manteniendo personajes y estilo visual consistentes.
Sora utiliza una arquitectura de transformador, similar a los modelos GPT, y representa videos e imágenes como colecciones de unidades de datos más pequeñas llamadas parches. Esta unificación de la representación de datos permite que el modelo sea entrenado en una gama más amplia de datos visuales.
Al darle al modelo la capacidad de prever muchos fotogramas a la vez, Sora puede garantizar que los sujetos permanezcan consistentes incluso cuando salen temporalmente de la vista.
Sora utiliza la técnica de recaptación de DALL·E 3, que implica generar leyendas altamente descriptivas para los datos de entrenamiento visual. Esto ayuda al modelo a seguir las instrucciones de texto del usuario de manera más fiel en los videos generados.
OpenAI está planeando tomar varias medidas de seguridad antes de integrar a Sora en sus productos, incluyendo pruebas adversariales, desarrollar clasificadores de detección y aprovechar métodos de seguridad existentes de otros productos como DALL·E 3.
Sora puede ser utilizado por cineastas, animadores, desarrolladores de juegos y otros profesionales creativos para generar contenido de video, storyboards o incluso para prototipar ideas de manera rápida y eficiente.
OpenAI está colaborando activamente con responsables políticos, educadores y artistas para comprender las preocupaciones e identificar casos de uso positivos para la tecnología. Reconocen que, si bien no pueden predecir todos los usos beneficiosos o abusos, aprender del uso en el mundo real es fundamental para crear sistemas de IA más seguros con el tiempo.
OpenAI tiene clasificadores de texto que verifican y rechazan las indicaciones de entrada de texto que violan las políticas de uso, como aquellas que solicitan violencia extrema, contenido sexual, imágenes de odio o uso no autorizado de propiedad intelectual.
Un 'modelo del mundo' en IA se refiere a un modelo computacional que simula el mundo físico y sus dinámicas, permitiendo que la IA comprenda y prediga cómo interactúan los objetos y entidades dentro de él. En el contexto de Sora, esto significa que el modelo ha sido entrenado para generar videos que no solo siguen indicaciones textuales, sino que también se adhieren a las leyes físicas y comportamientos del mundo real, como la gravedad, el movimiento y las interacciones entre objetos. Esta capacidad es crucial para crear contenido de video realista y coherente a partir de descripciones textuales.