IT 之家 8 月 26 日消息,今日晚间,阿里云宣布开源全新多模态视频生成模型通义万相 Wan2.2-S2V,仅需一张静态图片和一段音频,即可生成面部表情自然、口型一致、肢体动作丝滑的电影级数字人视频。
据介绍,该模型单次生成的视频时长可达分钟级,大幅提升数字人直播、影视制作、AI 教育等行业的视频创作效率。
Wan2.2-S2V 还支持文本控制,输入 Prompt 后还可对视频画面进行控制,让视频主体的运动和背景的变化更丰富。
例如,上传一张人物弹钢琴的照片、一段歌曲和一段文字,Wan2.2-S2V 即可生成一段完整、声情并茂的钢琴演奏视频,不仅能保证人物形象和原图一致,其面部表情和嘴部动作还能与音频对齐,视频人物的手指手型、力度、速度也能完美匹配音频节奏。
在模型训练上,通义团队构建了超 60 万个片段的音视频数据集,通过混合并行训练进行全参数化训练,充分挖掘了模型的性能。同时通过多分辨率训练、支持模型多分辨率的推理,可支持不同分辨率场景的视频生成需求,如竖屏短视频、横屏影视剧。
阿里云表示,自今年 2 月以来,通义万相已连续开源文生视频、图生视频、首尾帧生视频、全能编辑、音频生视频等多款模型,在开源社区和三方平台的下载量已超 2000 万。
开源地址:
GitHub:https://github.com/Wan-Video/Wan2.2
魔搭社区:https://www.modelscope.cn/ models / Wan-AI / Wan2.2-S2V-14B
HuggingFace:https://huggingface.co/Wan-AI/Wan2.2-S2V-14B
体验地址:
通义万相官网:https://tongyi.aliyun.com/ wanxiang / generate
阿里云百炼:https://bailian.console.aliyun.com/?tab=api#/api/?type=model&url=2978215