PaddleHub元宇宙直通车:手把手教你造个虚拟数字人
本文已有外发版本,外部链接请戳:
元宇宙时代已经来临,当你看到网络新闻上形形色色的虚拟人的时候,是不是有些心动?你是否认为创造虚拟人需要很大的学习成本和技术投入,普通开发者单枪匹马根本无法办得到?现在这些都不再是问题,飞桨预训练模型应用工具PaddleHub助你快速实现!
文章指路:
相信大家都接收到前几天这个虚拟数字人给大家的新年祝福了,今天给大家做一个技术详细揭秘。
背后支持虚拟数字人的神秘力量,其实是飞桨强大的开源生态和AI能力。
飞桨语音模型库PaddleSpeech将文字转换成语音,让虚拟数字人有了自己的声音。飞桨生成对抗网络开发套件PaddleGAN的人脸生成能力赋予了虚拟数字人一张可爱的脸蛋,表情迁移、唇形合成(同步)等模型驱动虚拟数字人的脸部活动,让虚拟人更加栩栩如生。
目前PaddleHub已经把以上模型纳入了模型库当中,现在只需要通过简单的十几行代码调用模型,输入图片和文字,即可生成一个生动形象的虚拟数字人。
技术原理
生成虚拟数字人总共需要调用三个模型,分别是First Order Motion(表情迁移)、Text to Speech(文本转语音)和Wav2Lip(唇形合成)。
实现步骤
1.把图像放入First Order Motion模型实现面部表情迁移,让虚拟主播的表情更加逼近真人。
- 依赖安装
- 图像准备
首先需要准备一张带背景和人脸的二维静态图像,如图所示。
- 表情迁移
通过FOM模型,输入图像和驱动视频,让人像动起来。
2.输入你想让数字人说的话,通过Text to Speech模型,将输入的文字转换成音频输出。
3.得到面部表情迁移的视频和音频之后,将音频文件和动态视频输入到Wav2Lip模型,并根据音频内容调整唇形,让唇形根据说话的内容动态改变,使得虚拟人更加接近真人效果。
经过上面的三个步骤,一个虚拟数字人的视频就生成了。
高阶玩法
PaddleBoBo是飞桨社区开发者基于飞桨框架和PaddleSpeech、PaddleGAN等开发套件的虚拟主播快速生成项目。除了可以实现以上功能之外,同时还支持调整语速、音高等,更可以经过简单的二次开发,实现实时新闻生成、直播播报等,欢迎大家体验和一键三连!
Github:
https://github.com/JiehangXie/PaddleBoBo
同时也欢迎感兴趣的大佬加入,共同打造飞桨元宇宙!
虚拟数字人的实现离不开飞桨开源生态的努力,希望大家给下面优秀的开源项目点star⭐
⭐ PaddleGAN:
https://github.com/PaddlePaddle/PaddleGAN
⭐ PaddleSpeech:
https://github.com/PaddlePaddle/PaddleSpeech
⭐ PaddleHub:
想必大家都知道今年热度很火的一个词AI虚拟数字人,其实AI数字人早在2017年SIGGRAPH大会上已经提出了,只是过去几年因为技术等问题还未进行商业化应用,而今年随着AIGC 强势爆发类 ChatGPT 语言大模型横空出世,掀起了人工智能热潮。ChatGPT的强势崛起,也推动着同样火爆出圈的元宇宙驶入发展快车道。作为一个人工智能领域超大的语言模型,ChatGPT目前主要应用在交互式对话的领域中,这个核心功能恰好完美契合AI数字人的应用场景。所以,当AIGC的技术与数字人结合之后,数字人的商业化应用就开始大规模的爆发了!
数字人身处元宇宙与ChatGPT这两大应用风口汇集点,正在呈现出独特的应用价值。文本生产、数据分析、图像生成等技术的快速发展,使得数字人多模拟交互实现人机互动,正朝着智能化、精细化、多样化、大众化的方向发展,也给传统行业服务营销模式带来新变革,缓解目前企业中服务质量难以量化、服务效率不高、服务成本居高不下等问题。