[发明专利]一种三维动画制作的表情动作控制方法在审
申请号: | 202010415619.4 | 申请日: | 2020-05-18 |
公开(公告)号: | CN111598982A | 公开(公告)日: | 2020-08-28 |
发明(设计)人: | 陶陶;唐龙 | 申请(专利权)人: | 南京艺德源动漫制作有限公司 |
主分类号: | G06T13/40 | 分类号: | G06T13/40 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 210000 江苏省南京市秦淮区永智*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 三维动画 制作 表情 动作 控制 方法 | ||
本发明公开了一种三维动画制作的表情动作控制方法,包括如下步骤:S1创建动作和表情姿态库:使用人脸表情捕捉算法和动作捕捉算法判别面部表情和动作幅度,为三维模型建立表情和动作幅度模型,使用者控制表情和动作幅度,通过使用者录制的音频信息和视频信息驱动三维模型建立动作和表情姿态库;动作和表情姿态库中包含多种动作和表情姿态,动作资料与表情资料相对应;S2表情和动作数据处理;S3驱动三维形象:使用多种动作和表情姿态数据同时驱动三维形象。本发明节省了动画师重头到尾制作动作的时间,提高了动作制作的效率,同时,有效降低计算量,提高了三维人脸动画制作效率,降低制作成本。
技术领域
本发明涉及动画制作技术领域,尤其涉及一种三维动画制作的表情动作控制方法。
背景技术
现实中,人的表情和动作均受到神经、肌肉和骨骼的控制,想要在三维形象中完全模拟人的面部表情和肢体动作并不容易。现有的三维动画制作方法多采用骨骼动画技术,将三维形象拆分为骨骼和蒙皮两部分,通过驱动骨骼部分来驱动三维形象数据。但这种数据驱动方法仅对身体骨骼效果较为理想,由于人的面部表情更多的受肌肉控制,骨骼驱动的方式并不适用于面部数据驱动。现有的方案通常是将三维形象的面部和身体再一次分割,单独驱动面部表情,这就导致三维形象的身体动作和表情不协调,需要进行大量的校准工作,以使三维形象的肢体动作与表情同步,耗费了大量的人力、物力和财力。
发明内容
基于背景技术存在的技术问题,本发明提出了一种三维动画制作的表情动作控制方法。
本发明提出的一种三维动画制作的表情动作控制方法,包括如下步骤:
S1创建动作和表情姿态库:
使用人脸表情捕捉算法和动作捕捉算法判别面部表情和动作幅度,为三维模型建立表情和动作幅度模型,使用者控制表情和动作幅度,通过使用者录制的音频信息和视频信息驱动三维模型建立动作和表情姿态库;
动作和表情姿态库中包含多种动作和表情姿态,动作资料与表情资料相对应;
S2表情和动作数据处理:
表情和动作幅度数据序列化,表情和数据文件标准化,表情和动作幅度数据序列化将所有最大目标表情和动画模型进行编号排序,然后将表情和动作数据变化量按照编号排序存储输出;
选择一种动作和表情姿态,动作和表情姿态包括姿态时间和姿态幅度,姿态时间分成N帧,任意选取姿态时间的某一帧,对这一帧的姿态幅度进行调整;
S3驱动三维形象:
使用多种动作和表情姿态数据同时驱动三维形象。
优选的,所述人脸表情捕捉算法和动作捕捉算法,将面部表情和动作幅度均分成喜怒哀乐悲恐惊七大类,建立喜怒哀乐悲恐惊七个标准表情和动作模型。
优选的,所述步骤1中面部表情和动作幅度,对应标准模型建立最大表情模型和最小表情模型,将最小表情模型变换到最大表情模型的过程划分成N级,每一个级别代表对应表情和动作模型的表情幅度。
优选的,所述步骤S1中的音频分贝划分成N级,建立音频分贝级别与表情和动作幅度级别的对应关系。
优选的,步骤S1中使用者录制的音频信息和视频信息采用网络传输的方式或本地录制的方式获得用户表情动态数据与骨骼动作数据。
本发明中,所述一种三维动画制作的表情动作控制方法,通过构建动作姿态库,并对模型上某一帧的局部空间进行微调,使构建的动作姿态达到动画师要求,节省了动画师重头到尾制作动作的时间,提高了动作制作的效率,同时,有效降低计算量,提高了三维人脸动画制作效率,降低制作成本。
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京艺德源动漫制作有限公司,未经南京艺德源动漫制作有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010415619.4/2.html,转载请声明来源钻瓜专利网。