HelloMeme是基于最新的Diffusion生成技术的框架,实现表情与姿态的迁移,HelloMeme集成空间编织注意力(Spatial Knitting Attentions)机制,基于Stable Diffusion 1.5模型的理解能力,将头部姿态和面部表情信息融合到去噪网络中,生成自然和物理合理的表情包视频。HelloMeme保持了基础模型的泛化能力,具有扩展到全身或半身构图的潜力。
HelloMeme的主要功能表情与姿态迁移:将驱动视频中的头部姿态和面部表情迁移到参考图像中,生成具有夸张表情和姿态的动态视频内容。保持泛化能力:在执行复杂下游任务时,保持基础模型的泛化能力,生成多样化的内容不局限于特定任务。兼容性与扩展性:与SD1.5衍生模型具有良好的兼容性,并有潜力扩展到全身或半身构图的应用。HelloMeme的技术原理空间编织注意力(Spatial Knitting Attentions):优化2D特征图的注意力机制,先进行行注意力操作,再进行列注意力操作,保持2D特征图的空间结构信息,类似于纺织时经纬线的交织。模块化设计:HelloMeme由三个主要模块组成:HMReferenceNet:用在从参考图像中提取细节丰富的特征。HMControlNet:负责编码头部姿态和面部表情信息。HMDenoisingNet:接收前两个模块的特征,实现可控的去噪生成。解耦控制信息:将头部姿态和面部表情信息解耦,分别编码,然后用SKCrossAttention机制融合,提高信息的表达能力和减少身份信息泄露的风险。视频生成流程:为提高视频帧之间的连续性,采用两阶段生成流程,先粗略生成视频帧,再通过再噪声化和运动模块生成平滑的视频片段。HelloMeme的项目地址项目官网:songkey.github.io/hellomemeGitHub仓库:https://github.com/HelloVision/HelloMemearXiv技术论文:https://arxiv.org/pdf/2410.22901在线体验Demo:https://www.modelscope.cn/studios/songkey/HelloMemeHelloMeme的应用场景社交媒体内容创作:用户生成个性化的表情包和视频,用在社交媒体平台,增加互动性和娱乐性。视频娱乐与游戏:在视频游戏或虚拟现实中,创建逼真的角色动画,提供更加沉浸式的体验。电影和视频制作:电影制作人员生成或增强角色的表情和动作,减少实际拍摄的成本和复杂性。广告与营销:用HelloMeme生成的动态图像和视频应用在广告,吸引观众的注意力,提高广告的吸引力和记忆度。教育与培训:在教育领域,创建教学视频,让学习内容更加生动和有趣。
上一篇