Atto primo Runway
Introdotto con la Gen-3 Alpha del generatore video Runway AI , Act One consente agli utenti di dare vita ai personaggi partendo da immagini fisse e video di riferimento, producendo video estremamente realistici con movimenti della bocca e espressioni umane.
Caratteristiche principali
- Animare immagini fisse con input video : Utilizza un video sorgente, combinato con un'immagine di riferimento, per creare fantastiche animazioni dei personaggi.
- Espressioni e movimenti della bocca realistici : I dettagli più realistici in ogni espressione facciale e movimento della bocca durante il discorso.
- Una gamma di riferimenti preimpostati : Puoi scegliere di animare una serie di volti umani e animali con l'Atto Uno oppure caricare le tue immagini di riferimento.
- Intensità di movimento regolabile : Imposta il movimento del personaggio in base alle tue preferenze.
Animazione di immagini fisse con video
Ecco Act-One. Un nuovo modo per generare performance di personaggi espressivi all'interno di Gen-3 Alpha utilizzando un singolo video di guida e un'immagine di personaggio. Non è richiesta alcuna cattura del movimento o rigging.
— Runway (@runwayml) 22 ottobre 2024
Scopri di più su Act-One qui sotto.
(1/7) pic.twitter.com/p1Q8lR8K7G
RunwayML Act One è progettato per permetterti di realizzare clip di animazione incentrate sui personaggi con l'IA. Per produrre queste clip, devi combinare un input video sorgente, che fornisce all'IA i movimenti e il parlato o l'audio di cui ha bisogno, più un'immagine di riferimento, che usa come base per l'animazione.
Quindi, puoi registrare un video di te stesso che leggi uno script, ad esempio, e poi caricarlo e usare un'immagine di un vecchio animato come base di partenza. Act One animerà quindi l'immagine del vecchio, sovrapporrà l'audio dal tuo video e lo farà muovere e parlare nello stesso modo in cui tu (o il tuo soggetto) avete fatto nel video di input.
Movimenti ed espressioni realistici
Uno degli aspetti migliori di Runway's Act One è quanto sia realistico e realistico l'output. Ha livelli straordinari di comprensione dell'anatomia e del movimento del viso e usa il movimento visto nel video di input e lo copia nell'animazione finale. È quasi come fare motion capture, ma senza attrezzature costose o processi che richiedono molto tempo.
Una gamma di riferimenti
Quando si tratta di scegliere la base o il fondamento della tua animazione, Runway ti offre molte opzioni. Offre in realtà decine di diverse immagini di riferimento e brevi videoclip in una gamma di stili, come animazione 3D, animazione 2D, illustrato e fotorealistico, e questi personaggi di riferimento non sono limitati solo a quelli umani.
Puoi anche creare animazioni che coinvolgono facce di animali, robot e altro, così puoi creare in modo efficace animazioni realistiche che hanno l'aspetto che desideri, da principesse in stile Disney a persone realistiche. Lo strumento ti consente anche di caricare la tua immagine, se preferisci, aprendo ancora più opportunità per creatività ed espressione.
Opzioni di intensità del movimento
Prima di generare la tua animazione con Act One, puoi anche configurare l'impostazione Motion Intensity, che va da 1 (la quantità minima di movimento) a 5 (la massima). Questo ti consente di impostare esattamente la quantità di movimento che vuoi ottenere nel tuo video finale, così puoi renderlo più energico e dinamico o più rilassato e calmo, in base all'umore desiderato.
Valore di intensità del movimento | Produzione |
1 | |
3 | |
5 |
Recensioni video
Altre recensioni su X
Runway ha appena aperto l'accesso al primo atto a tutti.
– Min Choi (@minchoi) 27 ottobre 2024
Ora, grazie all'intelligenza artificiale, chiunque può prendere la performance di un vero attore per animare qualsiasi personaggio.
10 esempi selvaggi: pic.twitter.com/8NQTtAtL1W
Cambiare l'espressione facciale di un video esistente con il nuovo aggiornamento Act One di Runway è la cosa che ho preferito fare quest'anno 🤠 pic.twitter.com/Ocd2lSX5rZ
— Nathan Shipley (@CitizenPlain) 6 dicembre 2024
Runway Act One ha appena cambiato l'animazione dei personaggi cinematografici.
– Min Choi (@minchoi) 26 ottobre 2024
Ora puoi usare il video di un vero attore per animare personaggi AI, senza bisogno di attrezzature sofisticate. 🤯
10 esempi selvaggi: pic.twitter.com/AMTMENnYWs
I cinesi sono di nuovo in sciopero: pochi giorni dopo l'uscita Runway, Act one X-Portrait 2 lancia una modella Video to Video super espressiva.
— Teodora PL (@toolstelegraph) 8 novembre 2024
Link nel primo commento pic.twitter.com/mqUqd00i7R
Runway Act One ora funziona in video. Sarà molto più utile. 👍 pic.twitter.com/YoIOvKYjK5
– Jon Finger (@mrjonfinger) 6 dicembre 2024
この動画を見て、確実にドラマや映画も完全AIで置き換えられる気がした。実写の写真を動かして、喋らすことができる。感情もあり、もう実写と分からないクオリティ。著名人も写真と声さえあれば無限にC Mや映画を作れる.SNSのショート動画のドラマもこのRunway Atto primoで作れそう。↓使い方pic.twitter.com/2AhwRDAVpY
— チャエン | デジライズ CEO《重要AIニュースを毎日最速で発信⚡️》 (@masahirochaen) 8 dicembre 2024
Domande frequenti
Cos'è Act-One Runway?
Act-One è un innovativo strumento AI di Runway per generare performance di personaggi espressivi nei video. Lanciato nell'ottobre 2024 come parte della piattaforma Gen-3 Alpha di Runway, Act-One consente agli utenti di creare personaggi animati basati su semplici input video.
Cosa puoi fare con l'Atto Uno di Runway?
Puoi usare Runway Act One per creare animazioni di personaggi AI, usando input video e riferimenti di immagini. Funziona molto come la motion capture, convertendo i movimenti da un video in un'animazione AI. Puoi usarlo per video narrativi, tutorial, pubblicità e altro.
Quali sono le best practice per l'utilizzo dell'Atto Uno?
Act One si basa su un input video di buona qualità per produrre video di qualità migliore. Quindi devi assicurarti che i video che carichi siano di buona qualità, con un singolo soggetto rivolto in avanti e chiaramente visibile. Evita movimenti eccessivi della testa e del corpo e usa movimenti ed espressioni facciali chiari e pronunciati.
Runway Act-One è gratuito?
Per essere precisi, Runway prende 10 crediti al secondo sul modello Gen-3 Alpha o cinque al secondo se si usa Gen-3 Alpha Turbo. Più lunghe sono le clip, più crediti si useranno.
Qual è la lunghezza massima di un video del primo atto?
La lunghezza massima dei video dell'Atto Uno è di 30 secondi. La lunghezza minima è di cinque secondi.
Cosa fare se il primo atto non funziona?
Ci sono alcuni passaggi di risoluzione dei problemi che puoi provare se Act One non dà i risultati giusti. Il modo migliore per risolvere il problema è solitamente registrare e caricare un input video di qualità migliore con una buona illuminazione, un soggetto chiaramente definito e un movimento minimo del corpo e dello sfondo.
Prova il generatore video AI definitivo!
Con Pollo AI puoi accedere facilmente ai migliori modelli video di intelligenza artificiale come Kling AI, Runway, Pixverse AI, Vidu AI, Luma AI e altri ancora, tutto in un unico posto, gratuitamente.