Runway第1幕
Runway AIビデオ ジェネレーターのGen-3 Alphaで導入された Act One を使用すると、静止画像や参照ビデオからキャラクターに命を吹き込み、人間の口の動きや表情で最もリアルなビデオを作成できます。
主な特徴
- ビデオ入力で静止画像をアニメーション化する: ソース ビデオと参照画像を組み合わせて、素晴らしいキャラクター アニメーションを作成します。
- 生き生きとした表情と口の動き: 会話中のあらゆる表情や口の動きの細部まで最もリアルに再現します。
- プリセットリファレンスの範囲: Act One では、さまざまな人間や動物の顔をアニメーション化することも、独自の参照画像をアップロードすることもできます。
- 調整可能な動作強度: 好みに応じて、キャラクターの動きを増やしたり減らしたりします。
静止画像を動画でアニメーション化する
Act-One のご紹介。単一の運転ビデオとキャラクター画像を使用して、 Gen-3 Alpha内で表現力豊かなキャラクター パフォーマンスを生成する新しい方法です。モーション キャプチャやリギングは必要ありません。
—Runway(@runwayml) 2024年10月22日
Act-One の詳細については以下をご覧ください。
(1/7) pic.twitter.com/p1Q8lR8K7G
RunwayML Act One は、AI を使用してキャラクターに重点を置いたアニメーション クリップを作成できるように設計されています。これらのクリップを作成するには、AI に必要な動きと音声または音声を提供するソース ビデオ入力と、アニメーションのベースラインとして使用する参照画像を組み合わせる必要があります。
たとえば、台本を読み上げる自分のビデオを録画し、それをアップロードして、アニメーション化された老人の画像をベースラインとして使用できます。Act One は、老人の画像をアニメーション化し、ビデオの音声をオーバーレイして、入力ビデオであなた (または被写体) が行ったのと同じように老人を動かして話させます。
リアルな動きと表情
Runway の Act One の最も優れた点の 1 つは、出力がいかにも生き生きとリアルであるかです。顔の構造と動きを非常に高いレベルで理解しており、入力ビデオで見られる動きを使用して、それを最終的なアニメーションにコピーします。高価な機器や時間のかかるプロセスなしで、モーション キャプチャを行うのとほとんど同じです。
さまざまな参考資料
アニメーションのベースや基盤を選ぶ際には、 Runway には多くのオプションがあります。3D アニメーション、2D アニメーション、イラスト、フォトリアリスティックなど、さまざまなスタイルのさまざまな参照画像や短いビデオ クリップが多数用意されており、これらの参照キャラクターは人間に限定されません。
動物の顔やロボットなどを使ったアニメーションも作成できるので、ディズニー風のお姫様から生きているような人間まで、思い通りのリアルなアニメーションを効果的に作成できます。また、このツールでは、必要に応じて独自の画像をアップロードすることもできるので、創造性と表現力をさらに広げることができます。
モーション強度オプション
Act One でアニメーションを生成する前に、モーションの強度設定も構成できます。これは、1 (モーションが最も少ない) から 5 (最も多い) までの範囲で設定できます。これにより、最終的なビデオにどの程度の動きを持たせるかを正確に設定できるため、希望する雰囲気に合わせて、よりエネルギッシュでダイナミックにしたり、よりリラックスして落ち着いたものにしたりできます。
モーション強度値 | 出力 |
1 | |
3 | |
5 |
ビデオレビュー
Xに関するその他のレビュー
Runwayは、第 1 幕へのアクセスをすべての人に開放しました。
— ミンチョイ (@minchoi) 2024年10月27日
今では AI のおかげで、誰でも本物の俳優の演技を模倣してあらゆるキャラクターをアニメ化できるようになりました。
10 のワイルドな例: pic.twitter.com/8NQTtAtL1W
Runway の新しい Act One アップデートで既存のビデオの顔のパフォーマンスを変更したのは、今年作ったものの中で一番のお気に入りです 🤠 pic.twitter.com/Ocd2lSX5rZ
— ネイサン・シップリー (@CitizenPlain) 2024年12月6日
Runway Act One は映画のキャラクターアニメーションを変えました。
— ミンチョイ (@minchoi) 2024年10月26日
今では、本物の俳優のビデオを使って AI キャラクターをアニメ化できます。特別な機材は必要ありません。🤯
10 のワイルドな例: pic.twitter.com/AMTMENnYWs
中国人がまたもや衝撃を与えている。RunwayのAct one X-Portrait 2リリースから数日後、非常に表現力豊かなVideo to Videoモデルがリリースされた。
— テオドラPL (@toolstelegraph) 2024年11月8日
最初のコメントにリンクありpic.twitter.com/mqUqd00i7R
Runway Act One がビデオで機能するようになりました。これは非常に便利です。👍 pic.twitter.com/YoIOvKYjK5
— ジョン・フィンガー (@mrjonfinger) 2024 年 12 月 6 日
この動画を見て、確実にドラマや映画も完全にAIで置き換えられる気がした。 実写の写真を動いて、喋れることができる。 感情もあり、もう実写と分からないクオリティ。 著名人も写真と声さえあれば無限にCMや映画を作れる。 SNSのショート動画のドラマもこのRunwayAct-Oneで作ろう。
— チャエン | デジライズ CEO《重要AIニュースを毎日最速で発信⚡️》 (@masahirochaen) 2024年12月8日
よくある質問
Act-One Runwayとは何ですか?
Act-One は、動画内で表現力豊かなキャラクター パフォーマンスを生成するためのRunwayの革新的な AI ツールです。2024 年 10 月に Runway のGen-3 Alphaプラットフォームの一部としてリリースされた Act-One を使用すると、ユーザーは簡単な動画入力に基づいてアニメーション キャラクターを作成できます。
Runway の Act One で何ができるでしょうか?
Runway Act One を使用すると、ビデオ入力と画像参照を使用して AI キャラクター アニメーションを作成できます。モーション キャプチャとよく似た動作で、ビデオの動きを AI アニメーションに変換します。これは、ナレーション ビデオ、チュートリアル、広告などに使用できます。
Act One を使用する際のベストプラクティスは何ですか?
Act One は、高品質のビデオ入力を利用して最高品質のビデオを制作します。そのため、アップロードするビデオが高品質で、1 人の被写体が正面を向いていてはっきりと映っていることを確認する必要があります。頭や体を過度に動かさず、はっきりとした顔の動きや表情を使用してください。
Runway Act-Oneは無料ですか?
正確に言うと、 Runway はGen-3 Alphaモデルでは 1 秒あたり 10 クレジット、 Gen-3 Alpha Turbo を使用している場合は 1 秒あたり 5 クレジットを消費します。クリップが長くなるほど、使用するクレジットも多くなります。
Act One ビデオの最大の長さはどれくらいですか?
Act One ビデオの最大長は 30 秒です。最小長は 5 秒です。
Act One が機能しない場合はどうすればいいですか?
Act One が正しい結果を出さない場合は、いくつかのトラブルシューティング手順を試すことができます。通常、この問題を解決する最善の方法は、適切な照明、明確に定義された被写体、および最小限の身体と背景の動きで、より高品質のビデオ入力を録画してアップロードすることです。
究極の AI ビデオ ジェネレーターを体験してください。
Pollo AIを使用すると、 Kling AI、 Runway、Pixverse AI、 Vidu AI、 Luma AIなどのトップ AI ビデオ モデルに簡単にアクセスでき、すべて 1 か所で無料で利用できます。