Stable Diffusionモデルのためのクリエイティブエンジン InvokeAI 3 がリリース!

CGソフト
2024年2月26日更新 – InvokeAI 3.7のリリース情報を追加

2023年7月23日 – Stable Diffusionモデルのためのクリエイティブエンジン InvokeAI 3.0 がリリースが発表されました。

Invoke AI 3

InvokeAI は、InvokeAIは、Stable Diffusionモデルのための主要なクリエイティブエンジンで、専門家、アーティスト、愛好家が最新のAI駆動技術を使用してビジュアルメディアを生成・作成できるようにします。このソリューションでは、A1111のようにローカルで利用できるWebUIが提供されています。

APIと拡張可能なノードベースの実行アーキテクチャで設計された最新版のバージョン3.0では、ControlNet、ボードベースのギャラリー管理、そしてノードベースのバックエンドによる「プラグイン」拡張性といった重要な新機能が追加されました。さらに、新しいモデルパイプラインの追加を簡素化するだけでなく、コアを構築するコントリビューターやプロジェクトの開発体験の改善も行われています。

また、このリリースから商用ホスティングサービスへの早期アクセスが開始されました。これにより、ハイスペックなPCを持っていない方でもInvokeAIを使用することができます。価格・詳細はこちらから

主な機能

ウェブサーバーとUI

InvokeAIは、業界をリードするユーザーエクスペリエンスを備えた、ローカルでホスティングされたウェブサーバーとReactフロントエンドを提供します。ウェブベースのUIは、シンプルで直感的なワークフローを可能にし、ウェブサーバーにアクセスするモバイルデバイスやタブレットで使用できるようにレスポンシブになっています。

ユニファイドキャンバス(Unified Canvas)

Unified Canvasは、すべてのコア生成機能、イン/アウトペインティング、ブラシツールなどをサポートする、完全に統合されたキャンバスの実装です。このクリエイティブツールは、AIが生成したイメージ、スケッチ、写真、レンダリングなどを補強するために使用できます。

ノードアーキテクチャー&エディター(ベータ版)

Invoke AIのバックエンドは、グラフベースの実行アーキテクチャに基づいて構築されています。これにより、プロダクションのユースケースをサポートする特定のワークフローを作成したいプロフェッショナルなユーザーが、カスタマイズ可能な生成パイプラインを開発することができます。

ボードとギャラリー管理

Invoke AIは、Invokeワークスペースにコンテンツを簡単に保存、アクセス、リミックスできる整理されたギャラリーシステムを提供します。画像は、アプリケーション内の画像ベースUI要素にドラッグ/ドロップすることができ、画像内の豊富なメタデータにより、ワークフローで使用する主要なプロンプトや設定を簡単に呼び出すことができます。

その他

  • ckptとdiffusersの両モデルをサポート
  • SD 2.0、2.1、XLをサポート
  • アップスケーリングツール
  • Embeddingマネージャーとサポート
  • モデルマネージャーとサポート
  • ノードベースアーキテクチャ
  • ノードベースのプラグアンドプレイUI(ベータ版)
  • Controlnet のサポート

アップデート情報

v3.1

2023年9月1日(現地時間) – InvokeAI 3.1.0がリリースされました。このリリースでは、ワークフロービルダー(ノードエディタ)に画像生成プロセスを支援する新しいツールが導入されました。ワークフロービルダーは、ノードベースのソフトウェアのパワーとGUIの使いやすさを組み合わせ、両方の長所を備えています。

ノードエディタを使用すると、必要なカスタム画像生成ワークフローを構築できるだけでなく、カスタムノードを作成して使用できるため、InvokeAIは完全に拡張可能なプラットフォームとなります。

InvokeAI でノードを使い始めるには、ワークフロー例やカスタム コミュニティノードをご覧ください。

新機能

  • InvokeAI のすべての領域にわたって SDXL サポートを拡張しました。
  • インペイント・アウトペイント機能の強化。
  • ユニファイドキャンバスを含むアセット使用コントロールの向上
  • 新しいノードの追加による機能性の向上
  • シームレスタイリングがSDXLサポートとともに復活。
  • インペイントとアウトペイントの改善
  • 生成後にコマンドラインから生成統計を表示可能に。
  • アプリケーションの Python ファイルでホットリロードが利用できるようになりました
  • LoRAはアルファベット順にソートさ れるようになりました。
  • autoimport フォルダ内のディレクトリへのシンボリックリンクがサポートされるようになりました。
  • UI/UXの改善
  • 画像生成オプション、attentionシステム、VRAMキャッシュをインタラクティブに設定できるようになりました。

v3.2

2023年10月3日(現地時間) – InvokeAI 3.2.0がリリースされました。

InvokeAI 3.2.0では、ワークフローや Invoke UI 内での大規模なバッチ画像生成を管理するための堅牢なキュー管理システムが導入されました。また、Image Prompt サポート(IP-Adapter)も導入され、テキストプロンプトに画像ベースのコンセプトをブレンドすることができるようになりました。

IP-Adapterについて

IP-Adapterは、事前に学習されたテキストから画像への拡散モデルに対して、画像プロンプト機能を実現するための効果的で軽量なアダプタで、微調整された画像プロンプトモデルと同等か、それ以上の性能を達成することができるとされています。

IP-Adapterを使い始めるには、希望するベースモデルの画像エンコーダーとIP-Adapterをダウンロードする必要があります。モデルをインストールすると、”Control Adapters “オプションからIP-Adapterを使用できるようになります。

Image Encoders:

IP-Adapter Models:

これらは、モデルマネージャから “Import Models “を選択し、目的のモデルのrepoIDを貼り付けることでインストールできます。モデルと画像エンコーダを忘れずにインストールしてください。

例えば、SD1.5 用の IP-Adapter を使い始めるには、次のようなリポジトリ ID を使用します:

  • InvokeAI/ip_adapter_plus_sd15
  • InvokeAI/ip_adapter_sd_image_encoder

または、invoke.batランチャーから “Developer’s Console “を起動し、次のコマンドを貼り付けて、コマンドラインから実行してください。

invokeai-model-install --add InvokeAI/ip_adapter_sd_image_encoder InvokeAI/ip_adapter_sdxl_image_encoder InvokeAI/ip_adapter_sd15 InvokeAI/ip_adapter_plus_sd15 InvokeAI/ip_adapter_plus_face_sd15 InvokeAI/ip_adapter_sdxl

新機能リスト

  • Queueing(キュー機能):複数の画像生成をキューに入れ、バッチを作成し、キューを管理し、生成に関する洞察を得ることができます。
  • IP-Adapterがサポートされました。
  • TAESDがサポートされました。 TAESD または TAESDXLは、モデルマネージャのUIからダウンロードできます。
  • LoRAとControlNetsが “Use All “機能で呼び出せるようになりました。
  • 新しいノード:ファイルからのプロンプトの読み込み(Load prompts from a file)、文字列操作(String manipulation)、数学関数の拡張(Expanded math functions)
  • ノードのキャッシュ:以前にキャッシュされた生成値を使用することで、パフォーマンスが向上します。
  • SD1.5のV-predictionがサポートされました。
  • 旧バージョンのInvokeAIからのイメージのインポートが修正されました
  • invokeai-db-maintenanceでデータベースメンテナンススクリプトを実行できるようになりました。
  • invokeai-metadata コマンドで画像のメタデータを表示できるようになりました。
  • ワークフローエディタのUI/UXが改善されました
  • ユニファイドキャンバスの改善とバグ修正

v3.3

2023年10月13日(現地時間) – InvokeAI 3.3.0がリリースされました。

InvokeAI 3.3.0では、リニアUIとワークフローの両方でアクセス可能な新しいコントロールアダプター機能が導入されています。

新機能リスト

  • T2I-Adapterのサポート:モデルは、モデルマネージャまたはランチャースクリプトのモデルダウンロード機能からダウンロードできます。
  • マルチIP-Adapterをサポート
  • 顔を扱うための新しいノード
  • ディスクからのモデルのロード時間の改善
  • ホットキーの修正
  • 翻訳の拡張(多くの言語に対応!)
  • ユニファイドキャンバスの改良とバグ修正

知っておくべきこと

  • 今後のアップデートでは、いくつかの大きな変更が加えられる予定です。
    • 3.30以降、InvokeAIはPython 3.10以降のバージョンでのみサポートされます。Python環境のアップグレードの準備を始めてください。
    • コミュニティノードはインポート構造を更新する必要があります。InvokeAIの内部サービスは、コミュニティ・ノードと将来の開発努力をより良くサポートするために再編成されます。
  • 現在、T2I-AdapterとControlNetを同時に使用することはできません。これは、通常のUIでは防止されていますが、ワークフロー開発において、このガイダンスに従わないとエラーが発生します。
  • T2I-Adapterは、現在64の倍数の画像出力サイズを必要とします。これは通常の UI で強制されますが、ワークフロー開発でもこの制約に従う必要があります。

v3.4

2023年10月13日(現地時間) – InvokeAI 3.4.0がリリースされました。

このリリースでは、LCM-LoRAのネイティブサポートなど多くのアップデートががあります。

LCM-LoRAについて

LCM-LoRAは、ディープラーニングモデルの性能を向上させるための技術の一つで、「Low-Rank Adaptation」(LoRA)に「Layer-wise Compensation Mechanism」(LCM)を組み合わせたものです。

  • Low-Rank Adaptation (LoRA): LoRAは、大規模な事前学習済みモデル(例えばGPT-3のようなモデル)の微調整に使用される技術です。このアプローチでは、モデルの全てのパラメータを微調整するのではなく、特定の層のパラメータを低ランクの行列で近似し、その行列だけを学習します。これにより、モデルのサイズや計算コストを抑えつつ、タスク特有の性能向上が期待できます。
  • Layer-wise Compensation Mechanism (LCM): LCMは、モデルの各層における情報の流れを調整し、性能を向上させる技術です。これは、各層に追加のパラメータや機構を導入することで、層間の情報伝達を最適化し、より良い学習結果を得ることを目的としています。

LCM-LoRAはこれらの技術を組み合わせることで、大規模な事前学習済みモデルの微調整をより効率的かつ効果的に行うことができます。特に、大規模な言語モデルや複雑なタスクに対して、計算コストを抑えつつ高い性能を達成するために用いられます。

新機能リスト

  • LCM-LoRAがInvokeAIでネイティブにサポートされました。LCM-LoRAは、HuggingFace RepoIDを使用してモデルマネージャからダウンロードできるdiffusersフォーマットでネイティブにサポートされています。LCMはカスタムノードでサポートされ、手動で追加できます。
  • Community NodesをInvokeAIのインストールフォルダのnodesフォルダに追加してインストールできるようになりました。
  • Core Nodesは、ワークフローエディタから自動的にアップデートできるようになりました。
  • パフォーマンスの大幅な改善:LoRAとテキストエンコーダのロード時間の短縮、トークン処理の改善
  • HiRes Fixが復活
  • ワークフローでFreeUをサポート
  • ControlNetsとT2I-Adaptersの併用が可能になりました。
  • ノードワークフローでマルチイメージIPアダプタが使用可能になりました(Instant LoRA!)
  • 中間画像がディスクに保存されなくなりました
  • .safetensors形式のControlNetsが使用できるようになりました(SD1.5とSD2のみ)。SD1.5とSD2の.safetensors ControlNetsをサポートするには、ランチャーからオプション[6]を選択し、” Re-run the configure script to fix a broken install or complete a major upgrade “を実行してください。
  • VAEを “Use All “で呼び出せるようになりました。
  • カラーピッカーの改良
  • 翻訳を追加しました(オランダ語、イタリア語、中国語がほぼ完成しました!)。
  • InvokeAIがPydantic2と最新のFastAPIを使用するようになり、特定の関数(Iterateノードなど)がより効率的になりました。

v3.5

2023年12月28日(現地時間) – InvokeAI 3.5.0がリリースされました。

新機能リスト

  • 複数の埋め込みに関するバグを修正
  • デフォルトワークフローにタイルアップスケーリングを追加 (Beta)
  • config.yamlからtorch-sdpの使用を尊重。

3.5.0 変更点

ワークフローライブラリ:

これまで、ワークフローは画像に関連付けるか、JSON としてダウンロードすることしかできませんでした。ワークフローライブラリでは、ワークフローを独立してデータベースに保存することができます。UI には、ワークフローを管理するためのソートやフィルタリングのオプションが用意されています。

このワークフロー ライブラリによって、デフォルトのワークフローをアプリに直接保存できるようになりました。Defaultタブにいくつかあります。InvokeAIアプリケーションが進化するにつれて、これらのワークフローは常に最新の状態に保たれ、定期的に追加されます。

■その他の機能強化

  • より高性能なノード更新
  • ワークフローとインストールされているノードが一致しない場合のエラー改善
  • コミュニティノードパックの名前が自動報告されるため、ワークフローにインストールされていないノードが必要な場合、何が不足しているかがわかります。
  • ノードのカスタムフィールドタイプ
  • タイル型アップスケーリングノード(BETA)
  • 不足していた翻訳文字列の追加
  • ギャラリーの自動スクロール

v3.60 – 3.63

2024年1月13日(現地時間) – InvokeAI 3.6.0がリリースされました。

このリリースでは、UI/UXのオーバーホールが行われました。次の動画で InvokeAI 3.6の動作を確認することができます。

■新機能リスト

  • UI/UXのオーバーホールの改善:コミュニティからのフィードバックに基づき、新しいUI/UXのアップデートが行われました。 Invoke 3.4からのアップグレードの際には、以下の「知っておくべきこと」をご参照ください。
  • Depth-Anything がサポートされ、Invoke のデフォルトのデプス処理になりました。
  • Remix image:これは、Use Allに似ていますが、Seed以外のすべてのパラメータを設定することで、新しい画像を作成できます。
  • 設定に “About “メニュー:Invokeと依存関係のバージョンを表示します。
  • Ideal Sizeノードがデフォルトノードになりました。
  • LoRAのリネームバグを修正。
  • ワークフローの保存動作を更新。
  • 生成速度の大幅な向上。
  • ワークフローライブラリの改善。
  • Unified Canvas ホットキーの追加:Ctrl + マウススクロールでブラシサイズを変更できるようになりました。
  • インストーラーとアップデータの改善
  • モデルの変換と保存に関するモデルマネージャの更新
  • 画像保存の高速化:既存のインストールのイメージ保存速度の向上を利用するには、invoke.yaml ファイルでpng_compress_levelを1に設定します。

知っておくべきこと

▪アップデータ スクリプトを使用して 3.4 からアップグレードする場合、UIがレンダリングされず、エラーが表示されます{"detail":"Not Found"}。このエラーを修正するには、invoke.bat / invoke.sh メニューから開発者コンソールを開き、次を実行します。pip install --use-pep517 --upgrade --force-reinstall InvokeAI==v3.6.0

▪bfloat16 を Invoke で使用できるようになりました。bfloat16 を使用すると、以前のバージョンの Invoke とは生成結果が異なります。

▪現在既知の問題:

  • Model Manager のリファクタリングにより、モデルのスキャンは現在無効になっています

▪一部のユーザーは、torch が GPU ではなく CPU に戻ることを経験しています。これを修正するには、以下の手順に従ってください:

  1. invoke.bat / invoke.sh を起動し、開発者コンソールを開くオプションを選択します。
  2. 走る:pip install --force-reinstall torch==2.1.2 --index-url https://download.pytorch.org/whl/cu121
  3. testing_extensions でエラーが発生した場合は、次を実行します。 pip install -U typing-extensions
  4. fsspec でエラーが発生した場合は、次を実行します。pip install -U fsspec==2023.5.0

v3.7

2024年2月15日(現地時間) – InvokeAI 3.7.0がリリースされました。

このリリースでは、リニアビューインターフェイスが追加されました。他にも OpenPose プロセッサのデフォルトの変更、シームレスタイリングの改善などが行われています。

■新機能リスト

  • ワークフローリニアビュー:ワークフローを非表示にし、生成される画像に集中する洗練されたリニアビューインターフェイスでワークフローを使用できるようになりましたこれを有効にするには、ワークフローから左サイドバーのモデル名の横にある「リニアビューで使用(Use in Linear View)」ボタンをクリックします。
  • ワークフローのリニアビュー入力は、ドラッグ&ドロップで並び替えができるようになりました。
  • DWPose が Invoke のデフォルトの OpenPose プロセッサになりました。
  • シームレスタイリングが改善され、さらにシームレスになりました。
  • diffusers のバージョンが 0.26.3 に更新されました。
  • 様々なバグの修正

知っておくべきこと

考えられるアップデートの問題

  • アップデータ スクリプトを使用して 3.4 からアップグレードする場合、UI はレンダリングされず、次のエラーが表示されます{"detail":"Not Found"}。このエラーを修正するには、インストーラーをダウンロードし、既存のインストールと同じ場所で再実行します。

その他

  • OpenPose プロセッサが自動的に DWPose に切り替わらない場合があります。DWPoseを選択するには、”Show Advanced “キャレットを使用してプロセッサ設定を開き、プロセッサとしてDW Openposeを選択してください。
  • 現在確認されている問題:モデルマネージャのリファクタリングにより、モデルのスキャンが現在無効になっています。

最新の変更の確認はこちらから

インストール方法

インストールは、自動インストーラーとコマンドラインでのインストール(開発者やターミナルに慣れているユーザー向け)の2通りありますが、ここでは、自動インストーラーでのインストール方法を紹介します。

  1. 最新リリースページを開く。
  2. OS (Windows/macOS/Linux) の .zip ファイルをダウンロード。
  3. ファイルを解凍します。
  4. Windows:スクリプトをダブルクリックしますinstall.bat
    macOS:ターミナル ウィンドウを開き、ファイルをinstall.shFinder からターミナルにドラッグし、Return キーを押します。
    Linux:を実行しますinstall.sh
  5. InvokeAI とその画像生成モデルファイルをインストールするフォルダの場所を確認するメッセージが表示されます。少なくとも 15 GB の空きメモリがある場所を選択してください。多数のモデルをインストールする予定がある場合は、さらに多くする必要があります。
  6. GPU を選択します。インストーラーはプラットフォームを自動検出し、グラフィックス カードに搭載されている GPU のタイプを確認するように要求します。Linux システムでは、CUDA (NVidia カード)、ROCm (AMD カード)、または CPU (グラフィックス アクセラレーションなし) を選択できます。Windows では CUDA か CPU を選択できますが、Mac では CPU のみが提供されます。
  7. インストーラーが処理をするまで待ちます。ソフトウェアのインストールが終わると、インストーラーがスクリプトを起動し、InvokeAIの設定と画像生成モデルの選択を行います。
  8. InvokeAIがインストールされたフォルダを探します(解凍されたzipファイルのディレクトリとは異なります!)このフォルダのデフォルトの場所は(ステップ5で変更しなかった場合)、Linux/Macシステムでは~/invokeaiC:\Users\YourName\invokeaiです。このディレクトリには、invoke.shinvoke.batという名前のランチャースクリプトが含まれます。
  9. Windows システムでは、invoke.batファイルをダブルクリックします。macOS では、ターミナル ウィンドウを開き、invoke.shフォルダーからターミナルにドラッグして、Return キーを押します。Linux では、invoke.sh実行します。
  10. 1を押して「browser-based UI」を開き、Enter/Return を押して、Stable Diffusion が起動するまで 1 ~ 2 分待ってから、ブラウザを開いてhttp://localhost:9090に移動。

より詳しい情報はこちらのドキュメントページをご覧ください

システム要件

InvokeAIは、Linux、Windows、macOSでサポートされています。Linuxユーザーは、Nvidiaベースのカード(CUDAをサポート)またはAMDカード(ROCmドライバを使用)のいずれかを使用できます。

システム – 以下のいずれかが必要です:

  • 4GB以上のVRAMメモリを搭載したNVIDIAベースのグラフィックカード。Stable Diffusion XLモデルを使用したレンダリングには、6~8GBのVRAMを強く推奨します。
  • M1チップ搭載のAppleコンピュータ。
  • 4GB以上のVRAMメモリを搭載したAMDベースのグラフィックカード(Linuxのみ)。
    ※GTX 1650または1660シリーズのビデオカードの使用は推奨されません。半精度モードで動作できず、512×512画像をレンダリングするのに十分なVRAMを搭載していません。

メモリ – 12GB以上のメインメモリRAM。

ディスク – 機械学習モデル、Python、およびその依存関係すべてのために、少なくとも12 GBの空きディスク容量。

ダウンロード

このリリースからApache-2.0ライセンスの下で利用することができます。

無料のコミュニティエディション(ローカル版)のダウンロードはこちらから


InvokeAI ウェブサイトへ

コメント

Translate »
タイトルとURLをコピーしました