
Primeiro Ato da Runway
Introduzido com o gerador de vídeo Gen-3 Alpha da Runway AI , o Act One permite aos utilizadores dar vida às personagens a partir de imagens estáticas e vídeos de referência, produzindo os vídeos mais realistas com movimentos e expressões da boca humana.
Principais características
- Animar imagens estáticas com entrada de vídeo : Utilize um vídeo de origem, combinado com uma imagem de referência, para criar animações de personagens incríveis.
- Expressões realistas e movimentos da boca : Os detalhes mais realistas em cada expressão facial e movimento da boca durante o discurso.
- Uma gama de referências predefinidas : Pode optar por animar uma variedade de rostos humanos e animais com o Act One ou carregar as suas próprias imagens de referência.
- Intensidade de movimento ajustável : Defina o personagem para ter mais ou menos movimento, de acordo com a sua preferência.
Animar imagens estáticas com vídeos
Apresentando o Primeiro Ato. Uma nova forma de gerar performances expressivas de personagens dentro do Gen-3 Alpha utilizando um único vídeo de realização e imagem de personagens. Não é necessária captura de movimento nem montagem.
— Runway (@runwayml) 22 de outubro de 2024
Saiba mais sobre o Act-One abaixo.
(1/7) foto.twitter.com/p1Q8lR8K7G
O RunwayML Act One foi concebido para permitir criar clipes de animação focados em personagens com IA. Para produzir estes clipes, é necessário combinar uma entrada de vídeo de origem, que fornece à IA os movimentos e a fala ou áudio de que necessita, bem como uma imagem de referência, que utiliza como base para a animação.
Assim, pode gravar um vídeo seu a ler um guião, por exemplo, e depois enviá-lo e usar uma imagem de um velho animado como base. O Act One Um irá então animar a imagem do velho, sobreporá o áudio do seu vídeo e fará com que ele se mova e fale da mesma forma que você (ou a sua personagem) fez no vídeo de entrada.
Movimentos e expressões realistas
Um dos melhores aspetos do Act One da Runway é o quão realista e realista é o resultado. Tem níveis extraordinários de compreensão da anatomia e do movimento facial e utiliza o movimento visto no vídeo de entrada e copia-o para a animação final. É quase como fazer captura de movimento, mas sem qualquer equipamento caro ou processos demorados.
Uma gama de referências
Quando se trata de escolher a base ou o fundamento da sua animação, o Runway oferece muitas opções. Na verdade, oferece dezenas de imagens de referência diferentes e pequenos videoclipes em diversos estilos, como animação 3D, animação 2D, ilustrada e fotorrealista, e estas personagens de referência não se limitam apenas aos humanos.
Também pode fazer animações que envolvam rostos de animais, robôs e muito mais, para que possa criar eficazmente animações realistas que tenham o aspeto que desejar, desde princesas ao estilo Disney a pessoas realistas. A ferramenta permite ainda carregar a sua própria imagem, se preferir, abrindo ainda mais oportunidades para a criatividade e expressão.
Opções de intensidade de movimento
Antes de gerar a sua animação com o Act One Um, pode também configurar a Intensidade do Movimento, que varia de 1 (a menor quantidade de movimento) a 5 (a maior). Isto permite-lhe definir exatamente quanto movimento deseja obter no seu vídeo final, para que possa torná-lo mais enérgico e dinâmico ou mais relaxado e calmo, de acordo com o clima desejado.
Valor de intensidade de movimento | Saída |
1 | ![]() |
3 | ![]() |
5 | ![]() |
Críticas de vídeo
Outras avaliações sobre X
A Runway acaba de abrir o acesso ao Act One Um a todos.
— Min Choi (@minchoi) 27 de outubro de 2024
Agora, com a IA, qualquer pessoa pode usar a performance de um ator real para animar qualquer personagem.
10 exemplos selvagens: pic.twitter.com/8NQTtAtL1W
Alterar o desempenho facial de um vídeo existente com a nova actualização do Act One Um do Runway é a minha coisa favorita que fiz durante todo o ano 🤠 pic.twitter.com/Ocd2lSX5rZ
— Nathan Shipley (@CitizenPlain) 6 de dezembro de 2024
O Act One de Runway acaba de mudar a animação das personagens do cinema.
— Min Choi (@minchoi) 26 de outubro de 2024
Agora pode utilizar o vídeo de um ator real para animar personagens de IA, sem precisar de equipamento sofisticado. 🤯
10 exemplos selvagens: pic.twitter.com/AMTMENnYWs
Os chineses estão novamente a atacar - poucos dias após o lançamento do primeiro ato da Runway , a X-Portrait 2 lançou uma modelo super expressiva de vídeo para vídeo.
— Teodora PL (@toolstelegraph) 8 de novembro de 2024
Link no primeiro comentário pic.twitter.com/mqUqd00i7R
O Act One da Runway funciona agora em vídeo. Isso será muito mais útil. 👍 foto.twitter.com/YoIOvKYjK5
— Jon Finger (@mrjonfinger) 6 de dezembro de 2024
Descubra outros recursos do Runway
Artigos perspicazes sobre o Act One da Runway
Descubra os nossos artigos completos sobre o Runway para aprender as suas funções e vantagens!
Perguntas frequentes
O que é a Runway Act-One?
Act-One é uma ferramenta inovadora de IA da Runway para gerar performances expressivas de personagens em vídeos. Lançado em outubro de 2024 como parte da plataforma Gen-3 Alpha da Runway, o Act-One permite aos utilizadores criar personagens animadas com base numa simples entrada de vídeo.
O que pode fazer com o primeiro ato da Runway?
Pode utilizar o Runway Act One para fazer animações de personagens de IA, utilizando a entrada de vídeo e as referências de imagem. Funciona de forma muito semelhante à captura de movimento, convertendo os movimentos de um vídeo numa animação de IA. Pode utilizar isto para vídeos narrativos, tutoriais, anúncios e muito mais.
Quais são algumas práticas recomendadas para utilizar o Act One?
O Act One depende de uma entrada de vídeo de boa qualidade para produzir vídeos da melhor qualidade. Portanto, precisa de ter a certeza de que os vídeos enviados são de boa qualidade, com um único assunto virado para a frente e claramente visível. Evite movimentos excessivos da cabeça e do corpo e utilize movimentos e expressões faciais claras e pronunciadas.
O Runway Act-One é gratuito?
Para ser mais preciso, o Runway recebe 10 créditos por cada segundo no modelo Gen-3 Alpha ou cinco por segundo se estiver a utilizar o Gen-3 Alpha Turbo. Quanto mais longos forem os clipes, mais créditos utilizará.
Qual é a duração máxima de um vídeo do Primeiro Ato?
A duração máxima dos vídeos do primeiro ato é de 30 segundos. A duração mínima é de cinco segundos.
O que fazer se o Primeiro Ato não funcionar?
Existem algumas etapas de resolução de problemas que pode tentar se o primeiro ato não estiver a fornecer os resultados corretos. A melhor forma de corrigir isto é gravar e enviar uma entrada de vídeo de melhor qualidade com boa iluminação, um motivo claramente definido e um movimento mínimo do corpo e do fundo.

Experimente o melhor gerador de vídeo AI!
Com o Pollo AI, pode aceder facilmente aos principais modelos de vídeo de IA, como Kling AI, Runway, Pixverse AI, Vidu AI, Luma AI e muito mais - tudo num só local, gratuitamente.