Acto uno de la Runway
Presentado con el generador de video Gen-3 Alpha del Runway AI , Act One permite a los usuarios dar vida a los personajes a partir de imágenes fijas y videos de referencia, produciendo los videos más realistas con movimientos y expresiones de boca humana.
Características principales
- Animar imágenes fijas con entrada de vídeo :Utilice un video de origen, combinado con una imagen de referencia, para crear animaciones de personajes increíbles.
- Expresiones y movimientos de boca realistas. :Los detalles más realistas en cada expresión facial y movimiento de la boca durante el habla.
- Una gama de referencias preestablecidas :Puedes elegir animar una variedad de rostros humanos y animales con Act One, o cargar tus propias imágenes de referencia.
- Intensidad de movimiento ajustable :Configura el personaje para que tenga más o menos movimiento, según tus preferencias.
Animación de imágenes fijas con vídeos
Presentamos Act-One. Una nueva forma de generar actuaciones expresivas de personajes dentro de Gen-3 Alpha utilizando un único vídeo de conducción y una imagen del personaje. No se requiere captura de movimiento ni manipulación.
— Runway (@runwayml) 22 de octubre de 2024
Obtenga más información sobre el Acto Uno a continuación.
(1/7) pic.twitter.com/p1Q8lR8K7G
RunwayML Act One está diseñado para permitirle crear clips de animación centrados en personajes con IA. Para producir esos clips, debe combinar una entrada de video de origen, que le brinda a la IA los movimientos y el habla o audio que necesita, además de una imagen de referencia, que utiliza como línea base para la animación.
Por ejemplo, puedes grabar un vídeo de ti mismo leyendo un guion y luego subirlo y usar una imagen de un anciano animado como base. Act One animará la imagen del anciano, superpondrá el audio de tu vídeo y hará que se mueva y hable de la misma forma que tú (o tu protagonista) lo hiciste en el vídeo de entrada.
Movimientos y expresiones realistas
Uno de los mejores aspectos del primer acto de Runway es lo realista que es el resultado. Tiene niveles extraordinarios de comprensión de la anatomía y el movimiento faciales, y utiliza el movimiento visto en el video de entrada y lo copia en la animación final. Es casi como hacer captura de movimiento, pero sin ningún equipo costoso ni procesos que consuman mucho tiempo.
Una gama de referencias
A la hora de elegir la base o fundamento de tu animación, Runway te ofrece muchas opciones. De hecho, ofrece docenas de imágenes de referencia diferentes y videoclips cortos en una variedad de estilos, como animación en 3D, animación en 2D, ilustración y fotorrealismo, y estos personajes de referencia no se limitan solo a los humanos.
También puedes hacer animaciones que incluyan caras de animales, robots y más, para que puedas crear animaciones realistas que se vean como quieras, desde princesas al estilo Disney hasta personas que parecen reales. La herramienta también te permite cargar tu propia imagen, si lo prefieres, lo que abre aún más oportunidades para la creatividad y la expresión.
Opciones de intensidad de movimiento
Antes de generar tu animación con el Acto Uno, también puedes configurar la configuración de Intensidad de Movimiento, que va desde 1 (la menor cantidad de movimiento) hasta 5 (la mayor). Esto te permite establecer exactamente cuánto movimiento obtendrás en tu video final, para que puedas hacerlos más enérgicos y dinámicos o más relajados y tranquilos, según el estado de ánimo deseado.
Valor de intensidad de movimiento | Producción |
1 | |
3 | |
5 |
Reseñas en video
Otras reseñas sobre X
Runway acaba de abrir el acceso al Acto Uno para todos.
– Min Choi (@minchoi) 27 de octubre de 2024
Ahora con la IA, cualquiera puede tomar la actuación de un actor real para animar cualquier personaje.
10 ejemplos salvajes: pic.twitter.com/8NQTtAtL1W
Cambiar el rendimiento facial de un video existente con la nueva actualización del Acto Uno de Runway es lo que más me gustó de todo lo que hice en todo el año 🤠 pic.twitter.com/Ocd2lSX5rZ
— Nathan Shipley (@CitizenPlain) 6 de diciembre de 2024
El primer acto de Runway acaba de cambiar la animación de personajes de cine.
– Min Choi (@minchoi) 26 de octubre de 2024
Ahora puedes usar el video de un actor real para animar personajes de IA, sin necesidad de equipos sofisticados. 🤯
10 ejemplos salvajes: pic.twitter.com/AMTMENnYWs
Los chinos vuelven a la carga: pocos días después del lanzamiento de Runway Act One, X-Portrait 2 lanza un modelo de vídeo a vídeo súper expresivo.
— Teodora PL (@toolstelegraph) 8 de noviembre de 2024
Enlace en el primer comentario pic.twitter.com/mqUqd00i7R
El primer acto de Runway ahora funciona en video. Eso será mucho más útil. 👍 pic.twitter.com/YoIOvKYjK5
– Jon Finger (@mrjonfinger) 6 de diciembre de 2024
この動画を見て、確実にドラマや映画も完全AIで置き換えられる気がした。実写の写真を動かして、喋らすことができる。感情もあり、もう実写と分からないクオリティ。著名人も写真と声さえあれば無限にC Mや映画を作れる。SNSのショート動画のドラマもこのRunway Primer actoで作れそう。↓使い方pic.twitter.com/2AhwRDAVpY
— チ ャ エ ン | デジライズ CEO《重要AIニュースを毎日最速で発信⚡️》 (@masahirochaen) 8 de diciembre de 2024
Preguntas frecuentes
¿Qué es Act-One Runway?
Act-One es una innovadora herramienta de inteligencia artificial de Runway para generar interpretaciones expresivas de personajes en videos. Lanzada en octubre de 2024 como parte de la plataforma Gen-3 Alpha de Runway, Act-One permite a los usuarios crear personajes animados basados en una entrada de video simple.
¿Qué puedes hacer con el primer acto de Runway?
Puedes usar Runway Act One para crear animaciones de personajes con IA, utilizando entradas de video y referencias de imágenes. Funciona de manera muy similar a la captura de movimiento, convirtiendo los movimientos de un video en una animación con IA. Puedes usarlo para videos narrativos, tutoriales, anuncios y más.
¿Cuáles son algunas de las mejores prácticas para utilizar Act One?
Act One depende de una entrada de video de buena calidad para producir videos de la mejor calidad. Por lo tanto, debes asegurarte de que los videos que subas sean de buena calidad, con un solo sujeto mirando hacia adelante y claramente visible. Evita movimientos excesivos de cabeza y cuerpo, y utiliza movimientos y expresiones faciales claros y pronunciados.
¿Es Runway Act-One gratis?
Para ser precisos, Runway toma 10 créditos por cada segundo en el modelo Gen-3 Alpha o cinco por segundo si estás usando Gen-3 Alpha Turbo. Cuanto más largos sean tus clips, más créditos usarás.
¿Cuál es la duración máxima de un vídeo del primer acto?
La duración máxima de los vídeos del primer acto es de 30 segundos. La duración mínima es de cinco segundos.
¿Qué hacer si el primer acto no funciona?
Hay algunos pasos de solución de problemas que puedes probar si Act One no da los resultados correctos. La mejor manera de solucionarlo es grabar y cargar un video de mejor calidad con buena iluminación, un sujeto claramente definido y un mínimo movimiento del cuerpo y del fondo.
¡Experimente el generador de video con inteligencia artificial definitivo!
Con Pollo AI, puedes acceder fácilmente a los mejores modelos de video de IA como Kling AI, Runway, Pixverse AI, Vidu AI, Luma AI y más, todo en un solo lugar, gratis.