2023年12月20日(現地時間) – Stability AI は、Developer Platform APIに、生成ビデオの基盤モデルである Stable Video Diffusion を追加したことを発表しました。
Developer Platform APIに、Stable Video Diffusionが追加
Stable Video Diffusion の追加により、広告、マーケティング、テレビ、映画、ゲームなど様々な分野向けに設計された最先端の動画モデルへのプログラミングアクセスが可能になります。このリリースは、先進的な動画生成を製品にシームレスに統合する効率的な方法を開発者に提供することを目的としています。
Today, we are adding Stable Video Diffusion, our foundation model for generative video to the Stability AI Developer Platform API.
The model can generate 2 seconds of video, comprising of 25 generated frames and 24 frames of FILM interpolation, within an average time of 41… pic.twitter.com/CSUh3BoZ1a
— Stability AI (@StabilityAI) December 20, 2023
❒パフォーマンスと安全性を重視
Stable Video Diffusionは、パフォーマンスと安全性の両方に重きを置いており、24fpsのビデオ出力のためのフレーム補間を提供し、安全対策や電子透かしなどの機能を備えています。パフォーマンスにおいて競争力のあるこのモデルは、25個の生成フレームと24個のFILM補間フレームからなる2秒間のビデオを、平均41秒以内に生成することができます。
❒その他の機能
- 動きの強さの制御や、1024×576、768×768、576×1024を含む複数のレイアウトと解像度のサポートなどの機能を通じて、その能力をフルに活用することができます。
- jpgやpngなどの画像フォーマットにも対応。
- シード(seed)ベースの制御によって、開発者は繰り返し生成かランダム生成かを選択可能。
- 最終的なビデオ出力はMP4形式で提供されるため、さまざまなアプリケーションやプラットフォームに簡単に統合できます。
利用について
APIによるStable Video Diffusionの利用に興味のある開発者は、Stability AI Developer Platformから今すぐアクセスできます。Stability AI Developer プラットフォームは、text-to-image モデルである Stable Diffusion XL を含む、さまざまな画像生成モデルを提供しています。
さらに、Stable Videoのウェブインターフェイスにいち早くアクセスするためのウェイティングリストに登録することもできます。
Stability AI Developer Platform APIでStable Video Diffusionが利用可能になりました
コメント