2025年3月31日(現地時間)- Runway は、Runway AIが最新AIモデル「Gen 4」を発表しました。
一貫性と制御性を備えた最先端のAIモデルシリーズ 『Runway Gen-4 』
Gen-4では、シーン全体で一貫性のあるキャラクター、場所、オブジェクトを正確に生成できるようになりました。
ルック&フィールを設定するだけで、モデルは各フレームの特徴的なスタイル、ムード、映画的な要素を維持しながら、一貫性のあるワールド環境を保つことができます。
微調整や追加のトレーニングは一切不要で、指示と組み合わせた視覚的な参照を利用して、一貫したスタイル、被写体、場所などを使用して、新しい画像や動画を作成することが可能となっており、これにより、これまで以上に自由度で連続性のある長編物語コンテンツの制作ができます。
次の発表動画では、Gen 4を使って制作された短編映画や実験映像が紹介され、キャラクターやオブジェクトの一貫性、物理演算の理解、視覚効果の活用などがデモンストレーションされました。
他にもモデルの物語機能をテストするために、完全に Gen-4 で作成された短編映画とミュージック ビデオのコレクションが公開されています。
Gen-4の主な特長をまとめると以下の通りです。
一貫性のあるキャラクターを生成
Runway Gen-4を使用すると、キャラクターの参照画像を1枚だけで、無限の照明条件、場所、処理にわたって一貫したキャラクターを生成できます。
一貫性のあるオブジェクトを生成
必要な場所や条件に、任意のオブジェクトや被写体を配置できます。長編物語コンテンツのシーンを作成する場合でも、製品写真を生成する場合でも、Runway Gen-4を使用すると、さまざまな環境で簡単かつ一貫して生成可能となります。
あらゆるシーンのあらゆる角度を取得
シーンを作成するには、被写体の参照画像を提供し、ショットの構成を説明するだけです。残りはRunway Gen-4が行ってくれます。
品質と言語理解が向上
Gen-4は、リアルな動き、被写体、オブジェクト、スタイルの一貫性を持つ非常にダイナミックなビデオを、優れたプロンプトの遵守とクラス最高の世界理解で生成する能力に優れています。
物理現象をシミュレートする能力が向上
視覚的な生成モデルが現実世界の物理演算をシミュレートする能力が向上しており、重要なマイルストーンを示しているとされています。
新しい種類の視覚効果GVFX(おそらくGeneativeのG)
実写、アニメーション、VFXコンテンツとシームレスに連携できる、高速で制御可能かつ柔軟な動画生成。
使い方
次の動画でGen 4のワークフローを確認できます。
Gen 4を選択し、ビデオの最初のフレームとなる画像をアップロードすることで開始できます。様々なアスペクト比に対応しており、必要に応じてテキストプロンプトを追加することで、シーンの内容やカメラの動きを指示することができます。プロンプトがなくても高品質な動画生成が可能です。
さらに、Runwayの他のツールと組み合わせることで、キャラクターに会話させたり、シーンを拡張したり、生成された動画を再構築したり、高解像度化したりといった応用的な使い方も可能となります。
現在は画像からビデオを生成する機能に焦点が当てられていますが、この動画によると、今後、参照機能が追加され、キャラクターやオブジェクト、シーンの一貫性が向上するとのことです。
利用について
Gen-4は、有料プランのユーザーに対して段階的に提供されるとのことで、すでに有料ユーザーとエンタープライズ顧客に提供されています。
Gen-4の仕様詳細は以下のようになっています。
仕様 | 詳細 |
---|---|
コスト | 1秒あたり12クレジット |
対応する長さ | 5秒 (合計60クレジット) 10秒 (合計120クレジット) |
基本プロンプト入力 | テキスト、画像 (必須) |
テキストプロンプト文字数制限 | 1000文字 |
出力解像度 | 16:9 — 1280×720 px 9:16 — 720×1280 px 1:1 — 960×960 px 4:3 — 1104×832 px 3:4 — 832×1104 px 21:9 — 1584×672 px |
フレームレート (FPS) | 24fps |
※UnlimitedプランのExploreモードでは、Gen-4動画を無限に生成できます。
コメント