Runway Act One
Introduceret med Gen-3 Alpha fra Runway AI videogeneratoren, giver Act One brugere mulighed for at bringe karakterer til live fra stillbilleder og referencevideoer, og producere de mest naturtro videoer med menneskelige mundbevægelser og udtryk.
Nøglefunktioner
- Animer stillbilleder med videoinput : Brug en kildevideo, kombineret med et referencebillede, til at lave fantastiske karakteranimationer.
- Naturtro udtryk og mundbevægelser : De mest realistiske detaljer i ethvert ansigtsudtryk og bevægelse af munden under tale.
- En række forudindstillede referencer : Du kan vælge at animere en række menneske- og dyreansigter med Act One eller uploade dine egne referencebilleder i stedet for.
- Justerbar bevægelsesintensitet : Indstil karakteren til at have mere eller mindre bevægelse, alt efter din præference.
Animering af stillbilleder med videoer
Introduktion, Act-One. En ny måde at generere udtryksfulde karakterpræstationer inde i Gen-3 Alpha ved hjælp af en enkelt kørevideo og karakterbillede. Ingen motion capture eller rigning påkrævet.
— Runway (@runwayml) 22. oktober 2024
Lær mere om Act-One nedenfor.
(1/7) pic.twitter.com/p1Q8lR8K7G
RunwayML Act One er designet til at lade dig lave karakterfokuserede animationsklip med AI. For at producere disse klip skal du kombinere en kildevideoinput, som giver AI'en de bevægelser og den tale eller lyd, den har brug for, plus et referencebillede, som den bruger som baseline for animationen.
Så du kan for eksempel optage en video af dig selv, der læser et script op, og derefter uploade det og bruge et billede af en animeret gammel mand som din baseline. Act One vil derefter animere den gamle mands billede, overlejre lyden fra din video og få ham til at bevæge sig og tale på samme måde, som du (eller dit motiv) gjorde i inputvideoen.
Livslignende bevægelser og udtryk
Et af de bedste aspekter ved Runway's Act One er, hvor naturtro og realistisk outputtet er. Den har ekstraordinære niveauer af forståelse af ansigtets anatomi og bevægelse, og den bruger bevægelsen set i inputvideoen og kopierer den til den endelige animation. Det er næsten som at lave motion capture, men uden dyrt udstyr eller tidskrævende processer.
En række af referencer
Når det kommer til at vælge basen eller fundamentet for din animation, giver Runway dig en masse muligheder. Det tilbyder faktisk snesevis af forskellige referencebilleder og korte videoklip i en række stilarter, såsom 3D-animerede, 2D-animerede, illustrerede og fotorealistiske, og disse referencefigurer er ikke kun begrænset til menneskelige.
Du kan også lave animationer, der involverer dyreansigter, robotter og mere, så du effektivt kan skabe realistiske animationer, der ser ud, som du vil, fra prinsesser i Disney-stil til virkelighedstro mennesker. Værktøjet giver dig også mulighed for at uploade dit eget billede, hvis du foretrækker det, hvilket åbner endnu flere muligheder for kreativitet og udtryk.
Indstillinger for bevægelsesintensitet
Før du genererer din animation med Act One, får du også konfigureret indstillingen Motion Intensity, som spænder fra 1 (mindst bevægelse) til 5 (mest). Dette giver dig mulighed for at indstille præcis, hvor meget bevægelse du får i din endelige video, så du kan gøre dem mere energiske og dynamiske eller mere afslappede og rolige, alt efter det ønskede humør.
Værdi for bevægelsesintensitet | Produktion |
1 | |
3 | |
5 |
Video anmeldelser
Andre anmeldelser om X
Runway har lige åbnet adgang til Act One for alle.
— Min Choi (@minchoi) 27. oktober 2024
Nu med AI kan enhver tage en ægte skuespillers præstation for at animere enhver karakter.
10 vilde eksempler: pic.twitter.com/8NQTtAtL1W
At ændre ansigtets ydeevne af en eksisterende video med Runways nye Act One-opdatering er min yndlingsting, jeg har lavet hele året 🤠 pic.twitter.com/Ocd2lSX5rZ
— Nathan Shipley (@CitizenPlain) 6. december 2024
Runway Act One har lige ændret biograffiguranimation.
— Min Choi (@minchoi) 26. oktober 2024
Nu kan du bruge en ægte skuespillers video til at animere AI-karakterer, uden behov for fancy udstyr. 🤯
10 vilde eksempler: pic.twitter.com/AMTMENnYWs
Kineserne slår til igen - få dage efter Runway udgivelsen udgiver Act one X-Portrait 2 en super udtryksfuld Video til Video-model.
— Teodora PL (@toolstelegraph) 8. november 2024
Link i første kommentar pic.twitter.com/mqUqd00i7R
Runway Act One fungerer nu på video. Det vil være meget mere nyttigt. 👍 pic.twitter.com/YoIOvKYjK5
— Jon Finger (@mrjonfinger) 6. december 2024
この動画を見て、確実にドラマや映画も完全AIで置き換えられる気がした。実写の写真を動かして、喋らすことができる。感情もあり、もう実写と分からないクオリティ。著名人も写真と声さえあれば無限にC Mや映画を作れる。SNSのショート動画のドラマもこのRunway Act-Oneで作れそう。↓使い方pic.twitter.com/2AhwRDAVpY
— チャエン | デジライズ CEO《重要AIニュースを毎日最速で発信⚡️》 (@masahirochaen) 8. december 2024
Ofte stillede spørgsmål
Hvad er Act-One Runway?
Act-One er et innovativt AI-værktøj fra Runway til at generere udtryksfulde karakterpræstationer i videoer. Act-One blev lanceret i oktober 2024 som en del af Runways Gen-3 Alpha platform og giver brugerne mulighed for at skabe animerede figurer baseret på simpelt videoinput.
Hvad kan du gøre med Runway's Act One?
Du kan bruge Runway Act One til at lave AI-karakteranimationer ved hjælp af videoinput og billedreferencer. Det fungerer meget som motion capture, der konverterer bevægelserne fra en video til en AI-animation. Du kan bruge dette til fortællende videoer, tutorials, annoncer og mere.
Hvad er nogle bedste fremgangsmåder for at bruge Act One?
Act One er afhængig af videoinput af god kvalitet for at producere videoer i den bedste kvalitet. Så du skal sikre dig, at de videoer, du uploader, er af god kvalitet, med et enkelt emne vendt fremad og klart synligt. Undgå overdreven hoved- og kropsbevægelser, og brug klare og udtalte ansigtsbevægelser og udtryk.
Er Runway Act-One gratis?
For at være præcis tager Runway 10 kreditter for hvert sekund på Gen-3 Alpha modellen eller fem i sekundet, hvis du bruger Gen-3 Alpha Turbo. Jo længere dine klip er, jo flere kreditter vil du bruge.
Hvad er den maksimale længde af en Act One-video?
Den maksimale længde af Act One-videoer er 30 sekunder. Minimum længde er fem sekunder.
Hvad skal man gøre, hvis første akt ikke virker?
Der er et par fejlfindingstrin, du kan prøve, hvis Act One ikke giver de rigtige resultater. Den bedste måde at løse det på er at optage og uploade et videoinput af bedre kvalitet med god belysning, et klart defineret motiv og minimal krops- og baggrundsbevægelse.
Oplev den ultimative AI Video Generator!
Med Pollo AI kan du nemt få adgang til top AI-videomodeller som Kling AI, Runway, Pixverse AI, Vidu AI, Luma AI og mere – alt sammen på ét sted, gratis.