[发明专利]一种声音与表情捕捉实现三维人脸动画的方法在审
申请号: | 201710244737.1 | 申请日: | 2017-04-14 |
公开(公告)号: | CN108734757A | 公开(公告)日: | 2018-11-02 |
发明(设计)人: | 刘鸿雁;车万毅 | 申请(专利权)人: | 北京佳士乐动漫科技有限公司 |
主分类号: | G06T13/40 | 分类号: | G06T13/40;G06K9/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100102 北京市朝阳区北四*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 表情 三维人脸动画 三维模型 捕捉 人脸表情捕捉 面部表情 视频信息 音频控制 音频信息 算法 录制 驱动 | ||
1.一种声音与表情捕捉实现三维人脸动画的方法,包括:在三维人脸动画过程中,使用人脸表情捕捉算法判别面部表情;为三维模型建立表情模型;使用音频控制表情幅度;使用录制的音频信息和视频信息共同驱动三维模型生成表情动画。
2.根据权利要求1所述的方法,其特征在于,所述人脸表情捕捉算法判别面部表情包括:将面部表情分成喜怒哀乐悲恐惊七大类,使用表情识别算法计算表演者面部表情。
3.根据权利要求1所述的方法,其特征在于,所述表情模型包括:使用三维动画制作软件调整三维模型,建立喜怒哀乐悲恐惊七个标准表情模型。
4.根据权利要求3所述的方法,其特征在于,所述喜怒哀乐悲恐惊七个标准表情模型包括:为每个情绪对应的标准模型建立最大表情模型和最小表情模型,将最小表情模型变换到最大表情模型的过程划分成n级,每一个级别代表对应表情模型的表情幅度。
5.根据权利要求1所述的方法,其特征在于,所述音频控制表情幅度包括:将表演者音频分贝划分成n级,建立音频分贝级别与所述表情幅度级别的对应关系。
6.根据权利要求1所述的方法,其特征在于,所述使用录制的音频信息和视频信息共同驱动三维模型生成表情动画包括:录制过程中,采集表演者面部视频及表演者音频信息,使用采集的视频信息及音频信息同时驱动所述三维模型,生成表情动画。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京佳士乐动漫科技有限公司,未经北京佳士乐动漫科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710244737.1/1.html,转载请声明来源钻瓜专利网。