Meta、テキストから高品質なジオメトリとテクスチャを持つ3Dモデルを生成可能な「Meta 3D Gen」を発表

ニュース

2024年7月2日(現地時間)- Meta は、テキストから品質なジオメトリとテクスチャを持つ3Dモデルを生成する新しい Text-to-3D 研究「Meta 3D Gen」 を発表しました。

Meta 3D Genについて

Meta 3D Genは、高品質のジオメトリ、テクスチャ、PBRマテリアルを備えたテキストからメッシュへの生成を実現するMeta による最新の研究です。高解像度のテクスチャとマテリアルマップを備えた高品質な3Dアセットをエンドツーエンドで生成することができ、従来の最先端ソリューションの3倍から10倍のスピードで上回る結果を生み出すことができるとされています。

Metaは「Meta 3D Gen」の技術レポートに加え、Meta 3D Genシステムを構成する2つのコンポーネントに関する研究「 Meta 3D AssetGen」「Meta 3D TextureGen」も発表しました。

「 Meta 3D AssetGen」は、テキスト(画像条件付き)から3Dモデルを生成するためのもので、「Meta 3D TextureGen」は、アーティストが作成または生成したアセットの高品質なテクスチャ生成とAI支援によるリテクスチャリングが可能なモデルです。

Meta 3D AssetGen  は、3Dオブジェクトの外観にシェーディングをベイクするのではなく、AssetGenは物理ベースのレンダリング(PBR)マテリアルを出力するので、リアルなリライティングがサポートされています。

より詳しい情報は以下をご覧ください

コメント

Translate »
タイトルとURLをコピーしました