Primeiro Ato da Runway
Introduzido com o gerador de vídeo Gen-3 Alpha da Runway AI , o Act One permite aos utilizadores dar vida às personagens a partir de imagens estáticas e vídeos de referência, produzindo os vídeos mais realistas com movimentos e expressões da boca humana.
Principais recursos
- Imagens estáticas de anime com entrada de vídeo : Utilize um vídeo de origem, combinado com uma imagem de referência, para criar animações de personagens incríveis.
- Expressões realistas e movimentos da boca : Os detalhes mais realistas em cada expressão facial e movimento da boca durante o discurso.
- Uma variedade de referências predefinidas : pode optar por animar uma série de rostos humanos e animais com o Primeiro Ato ou fazer o upload das suas próprias imagens de referência.
- Intensidade de movimento ajustável : Defina o personagem para ter mais ou menos movimento, de acordo com a sua preferência.
Animar imagens estáticas com vídeos
Apresentação, Ato Um. Uma nova forma de gerar performances expressivas de personagens dentro do Gen-3 Alpha utilizando um único vídeo de realização e imagem de personagens. Não é necessária captura de movimento ou manipulação.
– Runway (@runwayml) 22 de outubro de 2024
Saiba mais sobre o Primeiro Ato abaixo.
(1/7) pic.twitter.com/p1Q8lR8K7G
O RunwayML Act One foi concebido para permitir criar clipes de animação focados em personagens com IA. Para produzir estes clipes, é necessário combinar uma entrada de vídeo de origem, que fornece à IA os movimentos e a fala ou áudio de que necessita, bem como uma imagem de referência, que utiliza como base para a animação.
Assim, pode gravar um vídeo seu a ler um guião, por exemplo, e depois carregá-lo e usar a imagem de um velho animado como base. O primeiro ato irá então animar a imagem do velho, sobrepor o áudio do seu vídeo e fazê-lo mover-se e falar da mesma forma que você (ou o seu sujeito) fez no vídeo de entrada.
Movimentos e expressões realistas
Um dos melhores aspetos do primeiro ato da Runway é o quão real e realista é o desfecho. Tem níveis extraordinários de compreensão da anatomia e do movimento facial e utiliza o movimento visto no vídeo de entrada e copia-o para a animação final. É quase como fazer captura de movimento, mas sem equipamento dispendioso ou processos demorados.
Uma série de referências
Quando se trata de escolher a base da sua animação, Runway oferece muitas opções. Na verdade, oferece dezenas de imagens de referência diferentes e pequenos videoclipes numa variedade de estilos, como animação 3D, animação 2D, ilustrada e fotorrealista, e estas personagens de referência não se limitam apenas aos humanos.
Também pode fazer animações que envolvam rostos de animais, robôs e muito mais, para poder criar animações realistas com o aspeto que desejar, desde princesas ao estilo Disney a pessoas realistas. A ferramenta permite ainda fazer o upload da sua própria imagem, se preferir, abrindo ainda mais oportunidades de criatividade e expressão.
Opções de intensidade de movimento
Antes de gerar a sua animação com o Acto Um, pode também definir a definição Intensidade de Movimento, que varia de 1 (a menor quantidade de movimento) a 5 (a maior). Isto permite-lhe definir exatamente quanto movimento terá no seu vídeo final, para que possa torná-lo mais enérgico e dinâmico ou mais relaxado e calmo, de acordo com o clima desejado.
Valor de intensidade de movimento | Saída |
1 | |
3 | |
5 |
Críticas de vídeo
Outras críticas sobre X
A Runway acaba de abrir o acesso ao Act One a todos.
- Min Choi (@minchoi) 27 de outubro de 2024
Agora, com a IA, qualquer pessoa pode interpretar a performance de um ator real para animar qualquer personagem.
10 exemplos selvagens: pic.twitter.com/8NQTtAtL1W
Alterar o desempenho facial de um vídeo existente com a nova atualização do Act One da Runway é a minha coisa favorita que fiz durante todo o ano 🤠 pic.twitter.com/Ocd2lSX5rZ
- Nathan Shipley (@CitizenPlain) 6 de dezembro de 2024
Runway Act One acabou de mudar a animação das personagens do cinema.
- Min Choi (@minchoi) 26 de outubro de 2024
Agora pode utilizar o vídeo de um ator real para animar personagens de IA, sem a necessidade de equipamento sofisticado. 🤯
10 exemplos selvagens: pic.twitter.com/AMTMENnYWs
Os chineses estão novamente a atacar - poucos dias após o lançamento da Runway, o Act One X-Portrait 2 lança um modelo Video to Video super expressivo.
-Teodora PL (@toolstelegraph) 8 de novembro de 2024
Link no primeiro comentário pic.twitter.com/mqUqd00i7R
O Runway Act One funciona agora em vídeo. Isso será muito mais útil. 👍 pic.twitter.com/YoIOvKYjK5
- Jon Finger (@mrjonfinger) 6 de dezembro de 2024
この動画を見て、確実にドラマや映画も完全 ai で置き換えられる気がした。実写の写真を動かして、喋らすことができる。感情もあり 、もう実写と分からないクオリティ。著名人写真と声さえあれば無限にCMや映画を作れる。SNSのショート動画のドラマもこのRunway Act-Oneで作れそう。 ↓使い方pic.twitter.com/2AhwRDAVpY
— チャエン | デジライズ CEO《重要AIニュースを毎日最速で発信⚡️》 (@masahirochaen) 8 de dezembro de 2024
Perguntas frequentes
O que é a Runway Act-One?
Act-One é uma ferramenta inovadora de IA da Runway para gerar performances expressivas de personagens em vídeos. Lançado em outubro de 2024 como parte da plataforma Gen-3 Alpha da Runway, o Act-One permite aos utilizadores criar personagens animadas com base numa simples entrada de vídeo.
O que pode fazer com o primeiro ato da Runway?
Pode utilizar o Runway Act One para fazer animações de personagens de IA, utilizando a entrada de vídeo e as referências de imagem. Funciona de forma muito semelhante à captura de movimento, convertendo os movimentos de um vídeo numa animação de IA. Pode utilizar isto para vídeos narrativos, tutoriais, anúncios e muito mais.
Quais são algumas práticas recomendadas para utilizar o Act One?
O Act One depende de uma entrada de vídeo de boa qualidade para produzir vídeos da melhor qualidade. Portanto, precisa de ter a certeza de que os vídeos enviados são de boa qualidade, com um único assunto virado para a frente e claramente visível. Evite movimentos excessivos da cabeça e do corpo e utilize movimentos e expressões faciais claras e pronunciadas.
O Runway Act-One é gratuito?
Para ser mais preciso, o Runway recebe 10 créditos por cada segundo no modelo Gen-3 Alpha ou cinco por segundo se estiver a utilizar o Gen-3 Alpha Turbo. Quanto mais longos forem os clipes, mais créditos utilizará.
Qual é a duração máxima de um vídeo do Primeiro Ato?
A duração máxima dos vídeos do primeiro ato é de 30 segundos. A duração mínima é de cinco segundos.
O que fazer se o Primeiro Ato não funcionar?
Existem algumas etapas de resolução de problemas que pode tentar se o primeiro ato não estiver a fornecer os resultados corretos. A melhor forma de corrigir isto é gravar e enviar uma entrada de vídeo de melhor qualidade com boa iluminação, um motivo claramente definido e um movimento mínimo do corpo e do fundo.
Experimente o melhor gerador de vídeo AI!
Com o Pollo AI, pode aceder facilmente aos principais modelos de vídeo de IA, como Kling AI, Runway, Pixverse AI, Vidu AI, Luma AI e muito mais - tudo num só local, gratuitamente.