新闻动态

NEWS

阿里云视频生成大模型万相2.1(Wan)重磅开源,此次开源采用Apache2.0协议,14B和1.3B两个参数规格的全部推理代码和权重全部开源,同时支持文生视频和图生视频任务,全球开发者可在Github、HuggingFace、魔搭社区下载体验。


图片1.jpg

此次开源的两个参数版本模型:


14B版本万相模型在指令遵循、复杂运动生成、物理建模、文字视频生成等方面表现突出,在权威评测集Vbench中,万相2.1以总分86.22%大幅超越Sora、Luma、Pika等国内外模型,稳居榜首位置。


1.3B版本万相模型不仅超过了更大尺寸的开源模型,甚至还和一些闭源的模型结果接近,同时能在消费级显卡运行,仅需8.2GB显存就可以生成480P视频,适用于二次模型开发和学术研究。


图片2.jpg


从2023年开始,阿里云就坚定大模型开源路线,千问(Qwen)衍生模型数量已超过10万个,是全球最大的AI模型家族。随着万相的开源,阿里云两大基模全部开源,实现了全模态、全尺寸大模型的开源。


万相2.1(Wan)模型技术解读

#模型性能

万相大模型在多个内部和外部基准测试中,均大幅超越现有的开源模型以及顶尖商业闭源模型。万相能够稳定展现各种复杂的人物肢体运动,如旋转、跳跃、转身、翻滚等;能够精准还原碰撞、反弹、切割等复杂真实物理场景。

在指令遵循能力方面,能够准确理解中英文长文本指令,还原各种场景切换、角色互动。


#关键技术

基于主流的DiT和线性噪声轨迹Flow Matching范式,万相大模型通过一系列技术创新实现了生成能力的重大进步。包括自研高效的因果3D VAE、可扩展的预训练策略、大规模数据链路构建以及自动化评估指标,这些创新共同提升了模型的最终性能表现。


高效的因果3D VAE:万相自研了一种专为视频生成设计的新型因果3D VAE架构,并结合多种策略来改进时空压缩、降低内存使用以及确保时间因果性。

图片3.jpg

万相大模型视频VAE


视频Diffusion Transformer:万相模型架构基于主流的视频DiT结构,通过Full Attention机制确保长时程时空依赖的有效建模,实现时空一致的视频生成。

图片4.jpg

万相视频模型架构图


模型训练和推理效率优化:训练阶段,对于文本、视频编码模块,我们使用DP 和FSDP 组合的分布式策略;对于DiT模块,我们采用DP、FSDP、RingAttention、Ulysses混合的并行策略。在推理阶段,为了使用多卡减少生成单个视频的延迟,我们需要选择CP来进行分布式加速。此外,当模型较大时,还需要进行模型切分。

图片5.jpg

DiT并行策略


#开源社区友好

万相已经在Github、HuggingFace、魔搭社区平台开源,全面支持了多种主流框架,已支持Gradio体验、xDiT并行加速推理,Diffusers和ComfyUI也在快速接入中,以方便开发者一键推理部署。这不仅降低了开发门槛,还为不同需求的用户提供了灵活的选择,无论是快速原型开发还是高效生产部署都能轻松实现。


ERTI尔提科技作为阿里云合作伙伴,可为企业提供开源链接,或者是一键部署服务,请联系我们!