北京 – 腾讯混元团队与腾讯音乐天琴实验室近日联合发布了一款名为HunyuanVideo-Avatar的语音数字人模型,该模型基于多模态扩散Transformer架构,旨在生成动态、情感可控且支持多角色对话的视频内容。这一创新技术有望为短视频创作、电商广告、知识可视化以及职业技能培训等领域带来变革。

HunyuanVideo-Avatar的核心功能在于其强大的视频生成能力。用户只需上传一张人物图像和相应的音频,模型即可自动分析音频中的情感和人物所处环境,生成包含自然表情、唇形同步及全身动作的视频。在多人互动场景中,该模型能够精准驱动多个角色,确保各角色的唇形、表情和动作与音频完美同步,实现自然的互动,从而生成各种场景下的对话、表演等视频片段。

该模型还支持多种风格、物种和多人场景,包括赛博朋克、2D动漫和中国水墨画等。创作者可以轻松上传卡通角色或虚拟形象,生成风格化的动态视频,满足动漫、游戏等领域的创作需求。

技术原理:多模态融合与情感控制

HunyuanVideo-Avatar的技术核心在于其多模态扩散Transformer架构(MM-DiT)。该架构能够同时处理图像、音频和文本等多种模态的数据,实现高度动态的视频生成。通过“双流到单流”的混合模型设计,先独立处理视频和文本数据,再将它们融合,有效捕捉视觉和语义信息之间的复杂交互。

为了确保生成视频中角色的动态运动和一致性,该模型采用了角色图像注入模块,取代了传统的加法角色条件方法,解决了训练与推理之间的条件不匹配问题。此外,音频情感模块(AEM)能够从情感参考图像中提取情感线索,将其转移到目标生成视频中,实现情感风格的精细控制。

在多角色场景下,面部感知音频适配器(FAA)通过潜在级别的面部掩码隔离音频驱动的角色,实现多角色场景下的独立音频注入,使每个角色能根据自己的音频进行独立的动作和表情生成。

为了加速训练和推理过程,提高生成视频的质量,该模型还采用了基于Causal 3D VAE技术的时空压缩的潜在空间,将视频数据压缩成潜在表示,再通过解码器重构回原始数据。此外,HunyuanVideo-Avatar使用预训练的多模态大语言模型(MLLM)作为文本编码器,相比传统的CLIP和T5-XXL,MLLM在图像-文本对齐、图像细节描述和复杂推理方面表现更佳。

应用场景:从广告到教育,潜力无限

HunyuanVideo-Avatar的应用场景十分广泛。企业可以利用该模型快速生成高质量的产品介绍视频,例如化妆品广告,通过展示产品效果,提升品牌知名度。在教育领域,该模型可以将抽象知识以视频形式呈现,增强教学效果。例如,数学教学中可以生成几何图形的旋转变形视频,帮助学生理解;语文教学中可以展现诗人创作的意境。

此外,HunyuanVideo-Avatar还可以用于职业技能培训,生成模拟操作视频,帮助学员掌握操作要点。在VR游戏开发领域,该模型可以生成逼真的环境和互动场景,例如古代遗迹探险。

开放资源与未来展望

腾讯混元团队已经开放了HunyuanVideo-Avatar的项目地址,包括项目官网、Github仓库、HuggingFace模型库以及arXiv技术论文,方便开发者和研究者进行学习和使用。

HunyuanVideo-Avatar的推出,标志着腾讯在人工智能视频生成领域取得了重要进展。随着技术的不断成熟和应用场景的不断拓展,相信该模型将在未来为各行各业带来更多的创新和价值。

参考文献:

(完)


>>> Read more <<<

Views: 0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注