[发明专利]一种实现与虚拟角色实时互动的表情克隆方法及装置有效
申请号: | 201511021376.1 | 申请日: | 2015-12-30 |
公开(公告)号: | CN105654537B | 公开(公告)日: | 2018-09-21 |
发明(设计)人: | 王雨萌;王政;徐波 | 申请(专利权)人: | 中国科学院自动化研究所 |
主分类号: | G06T13/40 | 分类号: | G06T13/40;G06T15/00 |
代理公司: | 中科专利商标代理有限责任公司 11021 | 代理人: | 宋焰琴 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 实现 虚拟 角色 实时 互动 表情 克隆 方法 装置 | ||
1.一种实现与虚拟角色实时互动的表情克隆方法,其特征在于,包括如下步骤:
步骤1、对虚拟角色在三维软件中进行建模,得到虚拟角色模型,并对其进行骨骼的绑定,设定脖子关节为根关节;
步骤2、建立基础表情库,所述基础表情库包括未经网格变形的初始表情和通过已绑定的骨骼对所述初始表情进行表情控制操作后得到的多种基础表情;
步骤3、录制真人对应的所述初始表情和多种基础表情,获取初始表情下预定数量的面部特征点的初始空间坐标以及不同基础表情对应的所述面部特征点的位移空间坐标,根据所述面部特征点的初始空间坐标和位移空间坐标得到不同基础表情对应的所述面部特征点的最大位移,此时所述多种基础表情的权值为1;
步骤4、实时捕捉真人的面部表情变化,得到真人对应的所述多种基础表情相应的权值,并利用所述权值对所述虚拟角色模型进行骨骼的旋转插值,实时渲染输出所述虚拟角色模型。
2.如权利要求1所述的方法,其中,步骤4具体包括:
捕捉真人面部表情,识别真人当前面部表情下所述面部特征点及其空间坐标;
计算当前面部表情下所述面部特征点的空间坐标与初始表情下所述面部特征点的初始空间坐标的差值,得到所述面部特征点的当前位移;
利用不同基础表情对应的所述面部特征点的最大位移和当前位移得到所述不同基础表情的当前权值;
将所述不同基础表情的当前权值赋予所述虚拟角色模型的相应基础表情,得到每一骨骼在相应的基础表情下的旋转值,并对每一骨骼的所有旋转值叠加后,得到与虚拟角色模型初始表情的旋转插值,最终得到当前帧虚拟角色模型的当前面部表情;
根据所述虚拟角色模型的当前面部表情,实时渲染输出显示所述虚拟角色模型。
3.如权利要求2所述的方法,其中,步骤4中对眼珠和脖子进行单独的旋转计算,具体为:
眼珠转动是通过运动捕捉设备对眼睛的单独摄制,计算其处于眼眶中的位置,并赋予虚拟角色;
脖子转动是根骨骼的旋转,是通过人体头部的整体旋转效果得到的。
4.如权利要求2所述的方法,其中,所述不同基础表情的当前权值如下计算:
ΔTk=Ttk-T′0k
其中,ωit为当前时刻t的基础表情pi对应的当前权值,ΔTk是第k个面部特征点,在当前时刻t,相对于初始表情下对应面部特征点的位移,ΔTik为第k个面部特征点在第i个基础表情时,相对于初始表情的最大位移;T′0k为第k个面部特征点在初始表情时,经过全局坐标变换之后的空间坐标,Ttk为当前面部表情下第k个面部特征点的空间坐标;ωk为第k个面部特征点对于第i个基础表情pi的当前权值,n,n+1,...,n+m-1为第i个基础表情所涉及的面部特征点,共m个。
5.如权利要求2所述的方法,其中,所述每一骨骼在相应的基础表情下的旋转值如下计算:
θ=arccos(q0·qij)
其中,qj为骨骼sj经过旋转插值后的四元数旋转值,q0为初始表情的四元数旋转值,qij为骨骼sj在基础表情pi时的旋转值,ωi为基础表情pi对应的当前权值,可计算得到θ为q0与qij的夹角。
6.如权利要求1-5任一项所述的方法,其中,步骤3中所录制的真人图像为基于深度信息的彩色图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201511021376.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:窗口图像处理方法和装置
- 下一篇:蒸发器的结霜检测方法以及结霜检测系统