MuseTalk - 数字人唇部同步

devtools/2024/10/19 3:32:55/

文章目录

    • 一、关于 MuseTalk
      • 概览
      • 新闻
      • 模型
      • 案例
      • 待办事项:
      • 第三方集成
    • 二、安装
        • 构建环境
        • mmlab 软件包
        • 下载 ffmpeg-static
        • 下载权重
    • 三、快速入门
      • 推理
        • 使用 bbox_shift 以获得可调整的结果
        • 结合 MuseV 和 MuseTalk
        • 🆕实时推理
        • 实时推理注意事项
    • 四、其它
      • 致谢
      • 限制
      • 引文
      • 免责声明/许可证


MuseTalk_2">一、关于 MuseTalk

MuseTalk:具有 潜在空间修复 的 实时高质量唇部同步
作者:Yue Zhang , Minhao Liu, Zhaokang Chen, Bin Wu†, Yingjie He, Chao Zhan, Wenjiang Zhou (*Equal Contribution, †Corresponding Author, benbinwu@tencent.com)

由 腾讯音乐娱乐Lyra Lab 发布。

  • github : https://github.com/TMElyralab/MuseTalk
  • huggingface : https://huggingface.co/TMElyralab/MuseTalk
  • space : https://huggingface.co/spaces/TMElyralab/MuseTalk

ai浮世绘 : 4090 MuseTalk实测 | 来看看开源方案距离实时唇纹合成还有多远
https://www.bilibili.com/video/BV13T42117uM/


我们介绍MuseTalk,一种实时的高质量对口型模型(NVIDIA特斯拉V100上的30fps+)。MuseTalk可以应用于输入视频,例如,由MuseV生成的,作为一个完整的虚拟人解决方案。

🆕更新:我们很高兴地宣布MusePose 已经发布。MusePose是一个图像到视频生成框架,用于控制信号下的虚拟人,如姿势。与MuseV和MuseTalk一起,我们希望社区能够加入我们,朝着能够生成具有全身运动和交互能力的end2end虚拟人的愿景前进。


概览

MuseTalk是一个实时高质量的音频驱动唇同步模型,在ft-mse-vae的潜在空间中训练

  1. 根据输入音频修改看不见的脸,脸区域的大小为256 x 256
  2. 支持各种语言的音频,如中文、英文和日文。
  3. 在NVIDIA特斯拉V100上支持30fps+的实时推理。
  4. 支持修改人脸区域的中心点,这对生成结果有很大影响。
  5. 在HDTF数据集上训练的检查点可用。
  6. 训练代码(即将推出)。

新闻

  • [04/02/2024]发布MuseTalk项目和预训练模型。
  • [04/16/2024]在HuggingFace Spaces上发布Gradiodemo(感谢HF团队的社区资助)
  • [04/17/2024]📣我们发布了一个利用MuseTalk进行实时推理的管道。

模型

Model Structure

MuseTalk在潜在空间中进行训练,图像由冻结的VAE编码。音频是由一个冻结的 whisper-tiny 模型编码的。

生成网络的架构借鉴了 stable-diffusion-v1-4,其中音频嵌入通过交叉关注融合到图像嵌入中。

请注意,尽管我们使用与 Stable Diffusion, 非常相似的架构,但MuseTalk的不同之处在于它不是扩散模型。相反,MuseTalk通过一步在潜在空间中修复来运行。


案例

详见:https://github.com/TMElyralab/MuseTalk?tab=readme-ov-file#cases


待办事项:

  • 训练过的模型和推理代码。
  • Huggingface Gradio演示.
  • 实时推理代码。
  • 技术报告。
  • 训练代码。
  • 更好的模型(可能需要更长的时间)。

第三方集成

感谢第三方集成,让大家安装使用更加方便,我们也希望大家注意,我们没有验证、维护、更新第三方,具体结果请参考本项目。


ComfyUI : https://github.com/chaojie/ComfyUI-MuseTalk


二、安装

要准备Python环境并安装其他软件包,如opencv、扩散器、mmcv等,请按照以下步骤操作:


构建环境

我们推荐python版本>=3.10和cuda版本=11.7。然后构建环境如下:

pip install -r requirements.txt

mmlab 软件包
pip install --no-cache-dir -U openmim 
mim install mmengine 
mim install "mmcv>=2.0.1" 
mim install "mmdet>=3.1.0" 
mim install "mmpose>=1.1.0" 

下载 ffmpeg-static

下载 ffmpeg-static 和

export FFMPEG_PATH=/path/to/ffmpeg

例如:

export FFMPEG_PATH=/musetalk/ffmpeg-4.4-amd64-static

下载权重

您可以手动下载权重,如下所示:

  1. 下载我们训练的重量。
  2. 下载其他组件的权重:
    • sd-vae-ft-mse
    • whisper
    • dwpose
    • face-parse-bisent
    • resnet18

最后,这些权重应按以下models组织:

./models/
├── musetalk
│   └── musetalk.json
│   └── pytorch_model.bin
├── dwpose
│   └── dw-ll_ucoco_384.pth
├── face-parse-bisent
│   ├── 79999_iter.pth
│   └── resnet18-5c106cde.pth
├── sd-vae-ft-mse
│   ├── config.json
│   └── diffusion_pytorch_model.bin
└── whisper└── tiny.pt

三、快速入门


推理

在这里,我们提供了推理脚本。

python -m scripts.inference --inference_config configs/inference/test.yaml 

configs/inect/test. yaml 是推理配置文件的路径,包括 video_pathaudio_pathvideo_path 应该是视频文件、图像文件或图像目录。

建议您输入25fps的视频,与训练模型时使用的fps相同。如果您的视频远低于25fps,建议您应用插帧或直接使用 ffmpeg 将视频转换为25fps。


使用 bbox_shift 以获得可调整的结果

🔎我们发现掩膜的上界对张口有重要影响。因此,为了控制掩膜区域,我们建议使用bbox_shift参数。正值(向下半部分移动)增加张口,而负值(向上半部分移动)减少张口。

您可以首先使用默认配置运行以获取可调整的值范围,然后在此范围内重新运行脚本。

例如,在Xinying Sun的情况下,运行默认配置后,它显示可调值愤怒是[-9,9]。然后,为了减少嘴张开,我们将值设置为-7

python -m scripts.inference --inference_config configs/inference/test.yaml --bbox_shift -7 

📌更多技术细节可以在bbox_shift中找到。


MuseTalk_199">结合 MuseV 和 MuseTalk

作为虚拟人生成的完整解决方案,建议您首先应用MuseV通过引用此生成视频(文本到视频、图像到视频或姿势到视频)。帧插值建议增加帧率。然后,您可以使用MuseTalk通过引用此生成唇同步视频。


🆕实时推理

在这里,我们提供了推理脚本。该脚本首先应用必要的预处理,如人脸检测、人脸解析和VAE预先编码。在推理过程中,只涉及UNet和VAE解码器,这使得MuseTalk是实时的。

python -m scripts.realtime_inference --inference_config configs/inference/realtime.yaml --batch_size 4

configs/inference/realtime.yaml 是实时推理配置文件的路径,包括preparationvideo_pathbbox_shiftaudio_clips

  1. realtime.yaml中将preparation设置为True以准备新avatar的材料。(如果bbox_shift发生了变化,您还需要重新准备材料。)
  2. 之后,avatar 将使用从 audio_clips 中选择的音频剪辑 来生成视频。
Inferring using: data/audio/yongen.wav
  1. MuseTalk进行推理时,子线程可以同时将结果流式传输给用户。生成过程可以在NVIDIA特斯拉V100上实现30fps+。
  2. preparation设置为False 并运行此脚本,如果您想使用相同的头像生成更多视频。

实时推理注意事项
  1. 如果您想使用同一个头像/视频生成多个视频,您也可以使用此脚本显着加快生成过程。
  2. 在之前的脚本中,生成时间也受到I/O的限制(例如保存图像)。如果你只是想在不保存图像的情况下测试生成速度,你可以运行
python -m scripts.realtime_inference --inference_config configs/inference/realtime.yaml --skip_save_images

四、其它

致谢

  1. 我们感谢开源组件,如 whisper, dwpose, face-alignment, face-parsing, S3FD。
  2. MuseTalk提到了很多 diffusers 和 isaacOnline/whisper.。
  3. MuseTalk建立在HDTF数据集上。

感谢开源!


限制

  • 分辨率:尽管MuseTalk使用256 x 256的人脸区域大小,这使得它比其他开源方法更好,但它还没有达到理论分辨率界限。我们将继续处理这个问题。
    如果您需要更高的分辨率,您可以将GFPGAN等超分辨率模型与MuseTalk结合使用。
  • 身份保存:原始脸部的一些细节没有保存好,如小胡子、唇形和颜色。
  • 抖动:由于当前流水线采用单帧生成,因此存在一些抖动。

引文

@article{musetalk,title={MuseTalk: Real-Time High Quality Lip Synchorization with Latent Space Inpainting},author={Zhang, Yue and Liu, Minhao and Chen, Zhaokang and Wu, Bin and He, Yingjie and Zhan, Chao and Zhou, Wenjiang},journal={arxiv},year={2024}
}

免责声明/许可证

  1. codeMuseTalk的代码是在MIT许可证下发布的。学术和商业用途没有限制。
  2. model:经过训练的模型可用于任何目的,甚至商业用途。
  3. other opensource model:使用的其他开源模型必须符合其许可,如whisperft-mse-vaedwposeS3FD等。
  4. 测试数据收集自互联网,仅用于非商业研究目的。
  5. AIGC:这个项目致力于对人工智能驱动的视频生成领域产生积极影响。用户被授予使用这个工具创建视频的自由,但他们应该遵守当地法律并负责任地使用它。开发人员不承担用户潜在滥用的任何责任。

2024-08-03(六)


http://www.ppmy.cn/devtools/88244.html

相关文章

仓颉语言 -- 网络编程

使用新版本 (2024-07-19 16:10发布的) 1、网络编程概述 网络通信是两个设备通过计算机网络进行数据交换的过程。通过编写软件达成网络通信的行为即为网络编程。 仓颉为开发者提供了基础的网络编程功能,在仓颉标准库中,用户可使用…

搭建日志系统ELK(二)

搭建日志系统ELK(二) 架构设计 在搭建以ELK为核心的日志系统时,Logstash作为日志采集的核心组件,负责将各个服务的日志数据采集、清洗、过滤。然而缺点也很明显: 占用较多的服务器资源。配置复杂,学习曲线陡峭。处理大数据量时…

【unity小技巧】unity性能优化以及如何进行性能测试

文章目录 前言GPU性能优化打包素材 CPU性能优化代码执行优化 性能测试Vector2.Distance 和 sqrMagnitude哪个好?动画切换优化shader属性优化 URP渲染器资产优化对象池优化删除没必要的空函数图片、音乐音效、贴图等素材压缩ScriptableObject优化参数参考完结 前言 …

基于域名、ip的虚拟主机

一、基于域名的虚拟主机 基于域名的虚拟主机配置通常涉及服务器配置,特别是在使用Web服务器(如Apache, Nginx等)时。这里,我将提供两种流行的Web服务器(Apache和Nginx)的基本配置示例,用于基于…

【Linux】:环境变量

目录 前言(进程的特性): 1.认识环境变量 1.1 PATH 1.2 HOME 1.3 SHELL 1.4 HISSIZE 1.5 SSH_TTY 1.6 PWD和OLPWD 2. 环境变量的概念及其相关指令 什么是环境变量 echo(输出字符串到终端) env&#xff0…

嵌入式单片机中在线调试工具使用方法

大家好,相信很多小伙伴都听说过,或者用过SystemView这款工具。 它是一个可以在线调试嵌入式系统的工具,它可以分析RTOS有哪些中断、任务执行了,以及这些中断、任务执行的先后关系。 还可以查看一些内核对象持有和释放的时间点,比如信号量、互斥量、事件、消息队列等,这在…

Python笔试面试题AI答之面向对象(2)

文章目录 6.阐述 Python自省(机制与函数) ?7.简述Python中面向切面编程AOP和装饰器?面向切面编程(AOP)基本概念核心原理应用场景Python中的实现方式 装饰器(Decorator)基本概念语法应…

用 Bytebase 实现批量、多环境、多租户数据库的丝滑变更

Bytebase 提供了多种功能来简化批量变更管理,适用于多环境或多租户情况。本教程将指导您如何使用 部署配置 和 数据库组 在不同场景下进行数据库批量变更。 默认流水线 vs 部署配置 图片数据库 vs 数据库组 1. 准备 请确保已安装 Docker,如果本地没有重…