当前位置: 首页 > article >正文

分享6款文字语音生成驱动虚拟数字人说话的开源项目

一、FACEGOOD的Audio2Face

github地址:github.com/FACEGOOD/FA…

FACEGOOD 对输入和输出数据做了相应的调整,声音数据对应的标签不再是模型动画的点云数据而是模型动画的 blendshape 权重。

FACEGOOD 主要完成 Audio2Face 部分,ASR、TTS 由思必驰智能机器人完成。如果你想用自己的声音,或第三方的,ASR、TTS 可以自行进行替换。当然,FACEGOOD Audio2face 部分也可根据自己的喜好进行重新训练,比如你想用自己的声音或其它类型的声音,或者不同于 FACEGOOD 使用的模型绑定作为驱动数据,都可以根据下面提到的流程完成自己专属的动画驱动算法模型训练。那么 Audio2Face 这一步的框架是什么样呢?又如何制作自己的训练数据呢?

常规的神经网络模型训练大致可以分为三个阶段:数据采集制作、数据预处理和数据模型训练。第一阶段,数据采集制作。这里主要包含两种数据,分别是声音数据和声音对应的动画数据。声音数据主要是录制中文字母表的发音,以及一些特殊的爆破音,包含尽可能多中发音的文本。而动画数据就是,在 maya 中导入录制的声音数据后,根据自己的绑定做出符合模型面部特征的对应发音的动画;第二阶段,主要是通过 LPC 对声音数据做处理,将声音数据分割成与动画对应的帧数据,及 maya 动画帧数据的导出。第三阶段就是将处理之后的


http://www.kler.cn/a/104353.html

相关文章:

  • FLStudio21汉化破解激活版下载,Fl Studio 2024中文破解版激活补丁
  • 支持向量机(SVM)
  • OpenLayers入门,快速搭建vue+OpenLayers地图脚手架项目
  • React中的受控组件(controlled component)和非受控组件(uncontrolled component)
  • 解决netty作为web,post请求体过大导致413 Request Entity Too Largew问题
  • C++中的智能指针:更安全、更便利的内存管理
  • RabbitMQ原理(五):消费者的可靠性
  • 使用element-UI Cascader组件,实现第一级单选选,第二级,第三级,子级可以多选
  • Java开发-WebSocket
  • 简单聊下Redis的主从复制和哨兵机制以及集群(面试题)
  • 用GoAccess可视化监控npm日志
  • 30天精通Nodejs--第二天:模块系统与npm
  • express promise async await promisify
  • 如何让家居设备快速通过Matter认证?移远通信为您带来标准回答
  • 【滴滴出行安全应急响应平台DSRC2倍积分卡】
  • Spark_SQL-DataFrame数据写出以及读写数据库(以MySQl为例)
  • NPM-安装报错connect ETIMEDOUT
  • 页面html结构导出为word或pdf
  • 01. 板载硬件资源和开发环境
  • 五、W5100S/W5500+RP2040树莓派Pico<UDP Client数据回环测试>