
Runway Akt Eins
Act One wurde mit der Gen-3 Alpha des Runway AI Videogenerators eingeführt und ermöglicht es Benutzern, Figuren aus Standbildern und Referenzvideos zum Leben zu erwecken und so die lebensechtesten Videos mit menschlichen Mundbewegungen und Ausdrücken zu erstellen.
Hauptmerkmale
- Animieren Sie Standbilder mit Videoeingang : Verwenden Sie ein Quellvideo in Kombination mit einem Referenzbild, um beeindruckende Charakteranimationen zu erstellen.
- Lebensechte Ausdrücke und Mundbewegungen : Die realistischsten Details in jedem Gesichtsausdruck und jeder Mundbewegung beim Sprechen.
- Eine Reihe voreingestellter Referenzen : Sie können mit Act One eine Reihe von menschlichen und tierischen Gesichtern animieren oder stattdessen Ihre eigenen Referenzbilder hochladen.
- Einstellbare Bewegungsintensität : Stellen Sie je nach Wunsch mehr oder weniger Bewegung für den Charakter ein.
Animieren von Standbildern mit Videos
Wir präsentieren Act-One. Eine neue Möglichkeit, ausdrucksstarke Charakterdarstellungen in Gen-3 Alpha mithilfe eines einzigen Fahrvideos und Charakterbilds zu erzeugen. Keine Bewegungserfassung oder Rigging erforderlich.
— Runway (@runwayml) , 22. Oktober 2024
Erfahren Sie unten mehr über Act One.
(1/7) pic.twitter.com/p1Q8lR8K7G
RunwayML Act One wurde entwickelt, um Ihnen die Erstellung charakterzentrierter Animationsclips mit KI zu ermöglichen. Um diese Clips zu erstellen, müssen Sie einen Quellvideoeingang kombinieren, der der KI die Bewegungen und die Sprache oder das Audio liefert, die sie benötigt, sowie ein Referenzbild, das sie als Grundlage für die Animation verwendet.
Sie können beispielsweise ein Video von sich selbst aufnehmen, in dem Sie ein Skript vorlesen, dieses dann hochladen und als Grundlage das Bild eines animierten alten Mannes verwenden. In „Act One“ wird dann das Bild des alten Mannes animiert, der Ton aus Ihrem Video darübergelegt und er wird sich so bewegen und sprechen, wie Sie (oder Ihr Motiv) es im Eingabevideo getan haben.
Lebensechte Bewegungen und Ausdrücke
Einer der besten Aspekte von Runways Act One ist, wie lebensecht und realistisch die Ausgabe ist. Es verfügt über ein außergewöhnliches Verständnis der Gesichtsanatomie und -bewegung und verwendet die im Eingabevideo sichtbaren Bewegungen und kopiert diese in die endgültige Animation. Es ist fast wie Motion Capture, aber ohne teure Ausrüstung oder zeitaufwändige Prozesse.
Eine Reihe von Referenzen
Wenn es darum geht, die Basis oder Grundlage Ihrer Animation auszuwählen, bietet Runway Ihnen viele Optionen. Es bietet tatsächlich Dutzende verschiedener Referenzbilder und kurzer Videoclips in einer Reihe von Stilen, wie 3D-Animation, 2D-Animation, Illustration und fotorealistisch, und diese Referenzfiguren sind nicht nur auf menschliche beschränkt.
Sie können auch Animationen mit Tiergesichtern, Robotern und mehr erstellen, sodass Sie effektiv realistische Animationen erstellen können, die so aussehen, wie Sie möchten, von Prinzessinnen im Disney-Stil bis hin zu lebensechten Menschen. Das Tool ermöglicht Ihnen auch, Ihr eigenes Bild hochzuladen, wenn Sie dies bevorzugen, was noch mehr Möglichkeiten für Kreativität und Ausdruck eröffnet.
Bewegungsintensitätsoptionen
Bevor Sie Ihre Animation mit Act One erstellen, können Sie auch die Einstellung für die Bewegungsintensität konfigurieren, die von 1 (geringste Bewegung) bis 5 (höchste Bewegung) reicht. Auf diese Weise können Sie genau festlegen, wie viel Bewegung Sie in Ihrem endgültigen Video haben möchten, sodass Sie es je nach gewünschter Stimmung energischer und dynamischer oder entspannter und ruhiger gestalten können.
Bewegungsintensitätswert | Ausgabe |
1 | ![]() |
3 | ![]() |
5 | ![]() |
Videobewertungen
Weitere Rezensionen zu X
Runway hat gerade den Zugang zum Act One für alle geöffnet.
– Min Choi (@minchoi) 27. Oktober 2024
Dank künstlicher Intelligenz kann jetzt jeder die Leistung eines echten Schauspielers nutzen, um beliebige Charaktere zu animieren.
10 wilde Beispiele: pic.twitter.com/8NQTtAtL1W
Das Ändern der Gesichtsdarstellung eines bestehenden Videos mit Runways neuem Act One Update ist das Beste, was ich das ganze Jahr über gemacht habe 🤠 pic.twitter.com/Ocd2lSX5rZ
– Nathan Shipley (@CitizenPlain) , 6. Dezember 2024
Runway Act One hat die Charakteranimation im Kino gerade verändert.
— Min Choi (@minchoi) 26. Oktober 2024
Jetzt können Sie das Video eines echten Schauspielers verwenden, um KI-Charaktere zu animieren, ohne dass dafür ausgefallene Ausrüstung nötig ist. 🤯
10 wilde Beispiele: pic.twitter.com/AMTMENnYWs
Die Chinesen schlagen wieder zu – wenige Tage nach der Veröffentlichung von Runway Act One bringt X-Portrait 2 ein äußerst ausdrucksstarkes Video-to-Video-Modell heraus.
— Teodora PL (@toolstelegraph) 8. November 2024
Link im ersten Kommentar pic.twitter.com/mqUqd00i7R
Runway Act One funktioniert jetzt per Video. Das wird viel nützlicher sein. 👍 pic.twitter.com/YoIOvKYjK5
– Jon Finger (@mrjonfinger) 6. Dezember 2024
Entdecken Sie die weiteren Funktionen von Runway
Aufschlussreiche Artikel über Runway Act One
Entdecken Sie unsere ausführlichen Artikel zu Runway und erfahren Sie mehr über seine Funktionen und Vorteile!
FAQs
Was ist Act-One Runway?
Act-One ist ein innovatives KI-Tool von Runway zur Generierung ausdrucksstarker Charakterdarstellungen in Videos. Act-One wurde im Oktober 2024 als Teil der Gen-3 Alpha Plattform von Runway eingeführt und ermöglicht es Benutzern, animierte Charaktere auf der Grundlage einfacher Videoeingaben zu erstellen.
Was können Sie mit dem ersten Akt von Runway machen?
Mit Runway Act One können Sie KI-Charakteranimationen erstellen, indem Sie Videoeingaben und Bildreferenzen verwenden. Es funktioniert ähnlich wie Motion Capture und wandelt die Bewegungen aus einem Video in eine KI-Animation um. Sie können dies für Erzählvideos, Tutorials, Werbung und mehr verwenden.
Was sind die Best Practices für die Verwendung von Act One?
Um Videos in bester Qualität zu produzieren, ist Akt Eins auf Videoeingaben in guter Qualität angewiesen. Sie müssen also sicherstellen, dass die von Ihnen hochgeladenen Videos eine gute Qualität aufweisen und ein einzelnes Motiv nach vorne gerichtet und deutlich sichtbar ist. Vermeiden Sie übermäßige Kopf- und Körperbewegungen und verwenden Sie klare und ausgeprägte Gesichtsbewegungen und -ausdrücke.
Ist Runway Act-One kostenlos?
Genauer gesagt verbraucht Runway beim Gen-3 Alpha Modell 10 Credits pro Sekunde bzw. 5 Credits pro Sekunde, wenn Sie Gen-3 Alpha Turbo verwenden. Je länger Ihre Clips sind, desto mehr Credits verbrauchen Sie.
Wie lang ist die maximale Länge eines Videos im ersten Akt?
Die maximale Länge der Videos des ersten Akts beträgt 30 Sekunden. Die Mindestlänge beträgt fünf Sekunden.
Was tun, wenn der erste Akt nicht funktioniert?
Es gibt einige Schritte zur Fehlerbehebung, die Sie ausprobieren können, wenn Akt Eins nicht die richtigen Ergebnisse liefert. Die beste Möglichkeit, das Problem zu beheben, besteht normalerweise darin, ein Video mit besserer Qualität mit guter Beleuchtung, einem klar definierten Motiv und minimaler Körper- und Hintergrundbewegung aufzunehmen und hochzuladen.

Erleben Sie den ultimativen KI-Videogenerator!
Mit Pollo AI können Sie problemlos auf Top-KI-Videomodelle wie Kling AI, Runway, Pixverse AI, Vidu AI, Luma AI und mehr zugreifen – alles an einem Ort und kostenlos.