ad

ComfyUI 、動画生成のコントロール機能を提供するモデルスイート Wan2.2 Fun をネイティブサポート

CGソフト

2025年8月25日(現地時間)- Alibaba Cloudが開発した動画生成モデル群「Wan2.2 Fun」がComfyUIでネイティブサポートされました。

ここでは、Wan2.2-Fun-Inp と Wan2.2-Fun-Controlのワークフロ―を紹介したと思います。

Wan2.2 Funとは

Wan2.2 Funは、AlibabaのAI開発プラットフォーム(PAI)チームによって開発された、オープンソースの動画生成モデル群です。「Fun」が単一のモデルではなく、基盤となるWan2.2アーキテクチャ上に構築された、特定の機能に特化したツールスイートを指します。

このスイートの中核をなすのは、Fun ControlFun InP、そしてFun Cameraの3つの主要モデルです。Wan2.2 Funの目的は、クリエイターにこれまでにないきめ細かな動画生成のコントロール機能を提供することにあり、単なるテキストプロンプトからの動画生成(Text-to-Video)を超え、より意図的かつ監督的な映像制作が可能になります。

この度、ComfyUIがこれらのモデルをネイティブサポートし、さらに生成速度を向上させるLightX2V Lightning LoRAも統合されました。

Wan 2.2 in ComfyUI – Fun Control + InPainting / August 12th, 2025

ComfyUI Wan2.2 Fun Inp

Wan2.2-Fun-Inpは、開始フレームと終了フレームを制御する動画生成モデルです。Apache 2.0ライセンスでリリースされており、商用利用も可能です。

このモデルは、開始と終了のフレーム画像を入力して、その間のトランジション動画の生成をサポートしており、高いコントロール性を備えています。

ワークフローガイド

ステップ1: モデルとワークフローの準備

モデルのダウンロードと配置

以下のモデルファイルをダウンロードし、指定されたComfyUIのフォルダに配置してください。

ComfyUI/
└── models/
├── diffusion_models/
│ ├── wan2.2_fun_inpaint_high_noise_14B_fp8_scaled.safetensors
│ └── wan2.2_fun_inpaint_low_noise_14B_fp8_scaled.safetensors
├── loras/
│ ├── wan2.2_i2v_lightx2v_4steps_lora_v1_high_noise.safetensors (任意)
│ └── wan2.2_i2v_lightx2v_4steps_lora_v1_low_noise.safetensors (任意)
├── text_encoders/
│ └── umt5_xxl_fp8_e4m3fn_scaled.safetensors
└── vae/
└── wan_2.1_vae.safetensors

※diffusion_modelsのGGUF版はこちら

ワークフローのロード

ComfyUIを最新版に更新した後、メニューの Workflow → Browse Templates → Video から「Wan2.2 Fun Inp」を選択してロードします。

または、こちらのJSONファイルをダウンロードし、ComfyUIの画面にドラッグ&ドロップしてください。

ステップ2: ワークフローの実行

  1. High noiseモデルとLoRAのロード
    • Load Diffusion Modelノードでwan2.2_fun_inpaint_high_noise_14B_fp8_scaled.safetensorsモデルがロードされていることを確認します。
    • LoraLoaderModelOnlyノードでwan2.2_i2v_lightx2v_4steps_lora_v1_high_noise.safetensorsがロードされていることを確認します。
  2. Low noiseモデルとLoRAのロード
    • Load Diffusion Modelノードでwan2.2_fun_inpaint_low_noise_14B_fp8_scaled.safetensorsモデルがロードされていることを確認します。
    • LoraLoaderModelOnlyノードでwan2.2_i2v_lightx2v_4steps_lora_v1_low_noise.safetensorsがロードされていることを確認します。
  3. Load CLIPノードでumt5_xxl_fp8_e4m3fn_scaled.safetensorsモデルがロードされていることを確認します。
  4. Load VAEノードでwan_2.1_vae.safetensorsモデルがロードされていることを確認します。
  5. 開始フレームと終了フレームの画像を素材としてアップロードします。
  6. Promptグループにプロンプトを入力します。
  7. WanFunInpaintToVideoノードでサイズと動画の長さを調整します。
    • widthheightパラメータを調整します。デフォルトは640です。必要に応じて変更できます。
    • length(総フレーム数)を調整します。現在のワークフローのfpsは16です。例えば、5秒の動画を生成したい場合は、5*16=80に設定します。
  8. Runボタンをクリックするか、ショートカットキーCtrl(Cmd) + Enterを使用して動画生成を実行します。

パフォーマンス比較 (RTX4090D 24GB, 640×640, 81フレーム)

モデルタイプVRAM使用率初回生成時間2回目以降の生成時間
fp8_scaled83%約 524秒約 520秒
fp8_scaled + 4-step LoRA89%約 138秒約 79秒

LoRAによる高速化はビデオのダイナミクスを若干失う可能性がありますが、提供されるワークフローではデフォルトで高速化LoRAバージョンが有効になっています。もう一方を有効にするには、それを選択してCtrl+Bを使用してください。

ヒント: LoRAを使用する場合、DiffusionモデルとLoRAのhigh_noise / low_noiseのペアを正しく一致させてください。

出力例

Prompt: The camera slowly circles around the character (smoothly transitioning from the side to the front). The character made of code smiles naturally at the same time. During this process, the code keeps scrolling and flowing. The sci-fi particle light effects and digital space atmosphere are retained, making the code interweave like flowing data and strengthening the visual logic of "code lifeform".

ComfyUI Wan2.2 Fun Control

Wan2.2-Fun-Controlは、次世代の動画生成・制御モデルです。

優れたControl Codesメカニズムと深層学習、マルチモーダルな条件入力を組み合わせることで、事前に設定された制御条件に従う高品質な動画を生成できます。

❑ 主な特徴:

  • マルチモーダル制御: Canny(線画), Depth(深度), OpenPose(人間のポーズ), MLSD(幾何学的エッジ), 軌道制御など、複数の制御条件をサポートしています。
  • 高品質な動画生成: Wan2.2アーキテクチャに基づき、映画レベルの品質の動画を出力できます。
  • 多言語サポート: 中国語や英語を含む多言語のプロンプトをサポート。

ワークフローガイド

ステップ1: モデルとワークフローの準備

❑ モデルのダウンロードと配置

以下のモデルファイルをダウンロードし、指定されたComfyUIのフォルダに配置してください。

ComfyUI/
└── models/
    ├── diffusion_models/
    │   ├── wan2.2_fun_control_high_noise_14B_fp8_scaled.safetensors
    │   └── wan2.2_fun_control_low_noise_14B_fp8_scaled.safetensors
    ├── loras/
    │   ├── wan2.2_i2v_lightx2v_4steps_lora_v1_high_noise.safetensors (任意)
    │   └── wan2.2_i2v_lightx2v_4steps_lora_v1_low_noise.safetensors (任意)
    ├── text_encoders/
    │   └── umt5_xxl_fp8_e4m3fn_scaled.safetensors
    └── vae/
        └── wan_2.1_vae.safetensors

※diffusion_modelsのGGUF版はこちら

❑ ワークフローのロード

ワークフローは、メニューの Workflow → Browse Templates → Video から「Wan2.2 Fun Control」をロードするか、こちらのJSONファイルを使用します。

ステップ2: ワークフローを実行

  1. Load Diffusion Modelノードでwan2.2_fun_control_high_noise_14B_fp8_scaled.safetensorsを、LoraLoaderModelOnlyノードでwan2.2_i2v_lightx2v_4steps_lora_v1_high_noise.safetensorsを選択します。
  2. Load Diffusion Modelノードでwan2.2_fun_control_low_noise_14B_fp8_scaled.safetensorsを、LoraLoaderModelOnlyノードでwan2.2_i2v_lightx2v_4steps_lora_v1_low_noise.safetensorsを選択します。
  3.  Load CLIPノードでumt5_xxl_fp8_e4m3fn_scaled.safetensorsが選択されていることを確認します。
  4. Load VAEノードでwan_2.1_vae.safetensorsが選択されていることを確認します。
  5. Load Imageノードに、動画の開始フレームとなる画像をロードします。
  6. Load Videoノードに、制御用のポーズ動画などをロードします。(サンプルワークフローでは前処理済みの動画が想定されています)
  7. サンプルのように前処理済みの制御動画を使用する場合、対応する前処理ノード(例: DWPreprocessorなど)を選択し、Ctrl + Bを押して無効化(バイパス)します。
  8. プロンプトを編集します。中国語と英語の両方を使用できます
  9. Wan22FunControlToVideoノードで動画のサイズと長さを調整します。VRAM容量が少ないユーザーにとって過度な処理時間を避けるため、デフォルトでは640×640の解像度に設定されています。
  10. ボタンをクリックするRunか、ショートカットを使用してCtrl(cmd) + Enterビデオ生成を実行します

注意: Canny以外の制御(OpenPose, Depthなど)を行いたい場合は、ComfyUI-ControlNet-Auxのようなカスタムノードを追加で導入し、制御動画を事前に作成する必要があります。

出力例

Wan2.2 Fun Control 例:

Prompt: On a sunny summer day, there are marshmallow - like clouds, and the sunlight is bright and warm. A girl with white curly double - ponytails is wearing unique sunglasses, distinctive clothes and shoes. Her posture is natural and full of dynamic tension. The background is the scene of the Leaning Tower of Pisa in Italy, emphasizing the realistic contrast of details in reality. The whole picture is in a realistic 3D style, rich in details and with a relaxed atmosphere. She is dancing slowly, waving her hands.

より詳しい情報は公式ドキュメントページをご覧ください。


ComfyUI Wan2.2 Fun Native Support and LightX2V 4-Step LoRA Integration

コメント

Translate »
タイトルとURLをコピーしました