生成AIの悪用からクリエイターを守るツールを開発することを目的とした「Glazeプロジェクト」

フリーコンテンツ

生成AIの悪用からクリエイターを守るツールを開発することを目的とした「Glazeプロジェクト」の紹介です。

Glazeプロジェクトについて

Glazeプロジェクトは、シカゴ大学のコンピュータサイエンスの教授と博士課程の学生のチームによる、生成人工知能(生成AI)の悪用から人間のクリエイターを守ることを明確な目的とした技術ツールを開発する研究活動です。このプロジェクトでは、アーティストが作品に対する無許可のAIトレーニングを妨害するために使用できるツールが開発されています。

経緯


生成的なAIモデルは、コンテンツ、特に画像や芸術の作成と消費の方法を変えました。MidJourneyやStable Diffusionのような拡散モデルは、オンラインからスクレイピングされた画像の大規模なデータセットで学習されており、その多くは著作権で保護されていたり、個人的なものであったり、題材がデリケートであったりする。多くのアーティストが、LAION-5Bのようなトレーニングデータから、自身の知識、同意、クレジット、補償なしに、かなりの数のアート作品を発見している。

さらに悪いことに、これらのモデルの多くは、スタイル模倣と呼ばれるプロセスを通じて、個々のアーティストのコピーに使用されている。ユーザーは、人間のアーティストの作品を入手し、安定した拡散のようなモデルで「ファインチューニング」やLoRAを実行し、プロンプトとしてアーティストの名前を呼び出すと、ターゲットとなるアーティストの「スタイル」で任意の画像を生成できるモデルを完成させることができる。人気のあるインディーズアーティストは、彼らのアートワークの低品質な複製をオンラインで見つけ、多くの場合、モデルのプロンプトからのメタデータに彼らの名前が埋め込まれたままである。

スタイルの模倣は、一見しただけではわからないかもしれないが、多くの有害な結果を生み出します。意図的にスタイルを模倣されたアーティストにとっては、依頼料や基礎収入が減少するだけでなく、ネット上に散在する低品質の合成コピーが、彼らのブランドや評判を希薄化させます。最も重要なのは、アーティストが自分のスタイルをアイデンティティそのものと結びつけることです。彼らが何年もかけて開発した芸術的なスタイルが、同意も補償もなしにコンテンツ制作に使われるのを見るのは、アイデンティティの窃盗に似ている。最後に、スタイルの模倣とそれが成功したアーティストに与える影響は、若いアーティスト志望者を萎縮させ、やる気を失わせます。

このプロジェクトの最終的な目標は、人間のアーティストの継続的な活力を確保し、AIと人間のクリエイターの間のバランスを回復し、健全な共存を保証することです。2022年以来、この研究チームは、アートスタイルの模倣を破壊するツール「Glaze」、スクレイピングされた画像上で同意なしにトレーニングすることを抑制するツール「Nightshade」、そして、限られたコンピューティングリソースを持つアーティストが Glaze にアクセスできるようにするための無料のウェブサービス「WebGlaze」など、複数のツールをリリースしてきました。これらのツールはすべて、アーティストが無料で使用できるもので、営利目的で使用されることはありません。研究にかかる経費は、すべて全米科学財団、DARPA、Amazon AWS、C3.aiによる、研究助成金と寄付金でまかなわれているとのことです。

シカゴ大学チームの自分たちの価値観とミッションを次のように述べています。

価値観とミッション

アートは、私たちの経験、感情、痛み、トラウマに触発され、それを表現するものです。それは私たちをつなぎ、人間であることの意味の多くを定義します。私たちは、人間の創造性は唯一無二で進化し続けるものであり、今日の生成AIシステムは、訓練された人間の創造的な作品の粗悪な近似しか生み出すことができないと考えます。私たちの目標は、すべての人間のクリエーター(アーティスト、ミュージシャン、作家、ジャーナリスト、声優、ダンサー、振付師など)が、望まないAIのトレーニングやAIの模倣から芸術的創作物を保護できるような技術的ツールを提供することで、人間の創造性が繁栄し続けるよう支援することです。

現在までに、世界中のアーティストは昨年1年間でGlazeを230万回以上、Nightshadeを2ヶ月で30万回以上ダウンロードしています。このプロジェクトは、世界中のアーティストグループに対して講演を行い、米国とEUの立法者に対して倫理的なAIを提唱し、米国著作権局、FTC、その他複数の連邦政府機関と積極的に関与しています。

2024年4月には Glaze 2.0 の発表に加えて、短いビデオに対する保護ツールに取り組んでいることも発表されました。

以下、Glazeプロジェクトのツールの紹介です。

Glaze

Glazeは、スタイルの模倣を妨害することによって、人間のアーティストを保護するように設計されたシステムです。高レベルでは、Glazeは、人間の芸術を訓練しているAIモデルを理解し、機械学習アルゴリズムを使用して、人間の目には変更されていないように見えるが、AIモデルには劇的に異なるアートスタイルのように見えるように、アート作品に最小限の変更を加えることによって動作します。

例えば、写実的なスタイルの木炭の肖像画は、Glazeで処理した場合、人の目には変化していないように見えるが、AIモデルにはJackson Pollockのような現代的な抽象スタイルに見えるかもしれない。そのため、木炭画家を模倣したアートを生成するようモデルを促すと、期待とはまったく異なるものが得られることになります。

Glazeは透かしや隠しメッセージ(ステガノグラフィ)ではないので、次のようなことをしても壊れません。

① アートのスクリーンショット/写真を撮る
②作品をトリミングする、
③ノイズやアーティファクトをフィルタリングする
④画像を再フォーマット/リサイズ/リサンプルする

⑤ 圧縮する、
⑥ピクセルを滑らかにする、
⑦パターンを崩すためにノイズを加える

Glazeは芸術の新しい次元のようなもので、AIモデルには見えるが人間には見えないもの(紫外線や超音波のようなもの)だと考えることがでいます。グレイズが作用する次元(それは作品ごとに変化し、異なる)を正確に把握していない限り、グレイズの効果を妨害することは難しいとされています。

リスクと制限

機械学習の研究は急速に進んでおり、Glazeのようなツールに頼ることには固有のリスクがあります。

  • Glazeによる変更は、フラットな色彩と滑らかな背景を持つ美術品において、より目に見えるものとなる。新しいアップデート(Glaze 1.0)はこの面で大きな進歩を遂げましたが、今後も改善する方法は探し続けます。
  • 残念ながら、GlazeはAIの模倣に対する恒久的な解決策ではありません。Glazeのようなシステムは、将来を見越したものでなければならないという固有の課題に直面しています。今日私たちが使っている技術が、将来のアルゴリズムによって克服される可能性は常にあり、これまで保護されていた芸術が脆弱になる可能性もある。したがって、Glazeは万能薬ではないが、AIの模倣に対抗するアーティスト中心の保護ツールに向けた必要な第一歩である。私たちの希望は、Glazeとそれに続くプロジェクトが、より長期的な(法的、規制的)取り組みが定着するまでの間、アーティストに保護を提供することです。
  • このようなリスクがあるにもかかわらず、私たちはGlazeを可能な限り堅牢に設計し、既知のシステムや対策に対して広範なテストを行いました。研究チームは、Glazeがアーティストにとってスタイル模倣から身を守るための最強のツールであると信じています。

WebGlazeについて

2023年3月に初めてGlazeを導入して以来、多くのアーティストが主にモバイルデバイスで作業しており、GPUを搭載したパワフルなコンピューターにアクセスできる人はほとんどいないことがわかりました。研究チームは、Glazeをもっと利用しやすいものにするよう求める多くのフィードバックを受け取り、2023年8月、WebGlazeを展開しました。これは、アーティストが携帯電話やタブレット、あるいはブラウザを備えたあらゆるデバイスで実行できる無料のウェブサービスで、研究チームが費用を負担してAmazon AWSクラウドに設置したGPUサーバー上で自分の作品をGlaze処理することができます。Glazeの他の部分と同様に、WebGlazeは研究助成金によって賄われており、アーティストのために無料で提供されています。

Mac、古いPC、非NVidia GPU、NVidia GTX 1660/1650/1550を使用している場合、またはコンピュータを使用していない場合は、WebGlazeを使用する必要があります。WebGlazeは、招待制であり、当分の間は招待制のままです。生成AIツールを使用しない人間のアーティストであれば、誰でも無料で招待を受けることができます。ツイッターかインスタグラムの @TheGlazeProject にDMを送るか、メール(slower)を送ってください。招待状を受け取ってアカウントを作成したらこちらからアクセスできます。

アップデートについて

■Glaze 2.0

2024年4月14日(現地時間) –  Glazeのバージョン2.0のリリースが発表されました。この新バージョンでは、最新のAIモデルに対するGlazeの堅牢性が大幅に改善され、画像のGlaze処理に要する時間が短縮されました。最も顕著な点は

  • Stable Diffusion 1、2、SDXLに対する、特に滑らかな表面アート(アニメや漫画など)に対する堅牢性が大幅に向上。
  • 非収束パッチのアーチファクトに対応し、画像への顕著な修正が減少。
  • ほとんどのプラットフォームで計算効率が向上(~50%のスピードアップ)
  • MacのGPUをサポート — MacのM-CPUで5倍以上のスピードアップ。

その他詳しい情報&最新版のダウンロードはこちらから

ユーザー ガイドFAQ ページへ

Nightshade

NightshadeはGlazeと同様に機能するが、スタイル模倣に対する防御ではなく、生成AI画像モデル内の特徴表現を歪める攻撃的なツールとして設計されています。Glazeと同様、Nightshadeも、元の画像に対する目に見える変化を最小化する多目的な最適化として計算されます。人間の目には元の画像とほとんど変わらない陰影のついた画像が見えますが、AIモデルには劇的に異なる構図の画像が見えます。

例えば、人間の目には緑の野原にいる牛の陰影画像がほとんど変わらずに見えるかもしれないが、AIモデルには草むらに転がっている大きな革製の財布が見えるかもしれない。牛を含む十分な数の陰影画像で訓練されたモデルは、牛には素敵な茶色の革のような持ち手があり、ファスナー付きの滑らかなサイドポケットがあり、おそらく素敵なブランドロゴがあると思い込むようになります。

また、Glazeと同様、Nightshadeのエフェクトは、画像に加える通常の変更に強いのが特徴です。トリミングしたり、再サンプルしたり、圧縮したり、ピクセルを滑らかにしたり、ノイズを加えたりしても、毒の効果は残ります。スクリーンショットや、モニターに表示された画像の写真を撮っても、陰影の効果はそのまま残ります。これは透かしや隠しメッセージではないため)、脆弱なものではありません。

Nightshade と Glaze の違い

Glazeは個々のアーティストがスタイル模倣攻撃から身を守るために使用できる防御的なツールであり、Nightshadeはアーティストが同意なしに自分の画像をスクレイピングするモデルを妨害するためにグループとして使用できる攻撃的なツールです。したがって、これらのモデルからすべてのアーティストを守ることができます。

Glazeは、アーティスト自身を保護するために、アーティストがオンラインに投稿するすべての作品に使用されるべき機能であり、Nightshadeは、不謹慎なモデルトレーナーを阻止するために使用できる完全にオプションの機能である。自分の作品をオンラインに投稿するアーティストは、GlazeとNightshadeの両方を自分の作品に適用するのが理想的で、研究チームは、これらのツールの統合リリースに取り組んでいます。

リスクと制限

  • Nightshadeによる変化は、フラットな色や滑らかな背景を持つアートではより目立ちます。Nightshadeはモデルを混乱させることを目的としているため、強度や毒のレベルが低くても、画像の所有者に悪影響を及ぼすことはありません。そのため、オリジナル画像のビジュアルクオリティを優先したい方のために、低強度設定も用意されています。
  • セキュリティの攻撃や防御と同様に、Nightshadeは長期間にわたって将来性を維持することはできません。しかし、攻撃としては、Nightshadeは、潜在的な対策や防御に追いつくように容易に進化し続けることができます。

その他詳しい情報&最新版のダウンロードはこちらから


Glazeプロジェクトウェブサイトへ

コメント

Translate »
タイトルとURLをコピーしました