TechFlow速報によると、4月3日、アリババは全面的にアップグレードされた動画生成モデル「Wan2.7-Video」を発表しました。このモデルは、テキストから動画を生成する「テキスト→動画」、画像から動画を生成する「画像→動画」、参考素材から動画を生成する「参照→動画」、および既存動画の編集を行う「動画編集」の4つのサブモデルから構成され、AIの機能を単一の素材生成から、クリエイティブ制作の全工程へと拡大しています。(金十)
お気に入りに追加
SNSで共有
TechFlow速報によると、4月3日、アリババは全面的にアップグレードされた動画生成モデル「Wan2.7-Video」を発表しました。このモデルは、テキストから動画を生成する「テキスト→動画」、画像から動画を生成する「画像→動画」、参考素材から動画を生成する「参照→動画」、および既存動画の編集を行う「動画編集」の4つのサブモデルから構成され、AIの機能を単一の素材生成から、クリエイティブ制作の全工程へと拡大しています。(金十)
アリババは、新たにアップグレードされた動画生成モデル「Wan2.7-Video」を発表しました。このモデルは、テキストから動画を生成する「テキスト→動画」、画像から動画を生成する「画像→動画」、参照素材から動画を生成する「参照→動画」、および動画編集の4つのサブモデルを含み、AIの能力を単一の素材生成からクリエイティブな全工程へと拡大します。(Jinshi)