[发明专利]可实时互动的虚拟角色生成系统及方法有效
申请号: | 201810030220.7 | 申请日: | 2018-01-12 |
公开(公告)号: | CN108198234B | 公开(公告)日: | 2021-06-25 |
发明(设计)人: | 曹介白;刘岩 | 申请(专利权)人: | 北京蜜枝科技有限公司 |
主分类号: | G06T13/20 | 分类号: | G06T13/20 |
代理公司: | 北京合智同创知识产权代理有限公司 11545 | 代理人: | 李杰 |
地址: | 100044 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 实时 互动 虚拟 角色 生成 系统 方法 | ||
本申请实施例提供了一种可实时互动的虚拟角色生成系统及方法,包括制作虚拟角色的虚拟整体模型,所述虚拟整体模型至少包括虚拟面部模型、虚拟骨骼模型与虚拟附属部位模型,再将所述虚拟整体模型导入驱动引擎,以借由所述驱动引擎依据实时导入的虚拟面部模型动作指令而实时驱动所述虚拟面部模型执行动作,依据实时导入的虚拟骨骼模型动作指令而实时驱动所述虚拟骨骼模型执行动作,以及依据所述虚拟骨骼模型所执行的所述动作而实时驱动所述虚拟附属部位模型执行动作,从而生成可实时互动的所述虚拟角色。
技术领域
本申请实施例涉及三维虚拟角色处理技术,尤其涉及一种可实时互动的虚拟角色生成系统及方法。
背景技术
随着计算机技术的发展以及多媒体技术的进步,三维动画由于其强烈的空间感和逼真感而越来越多的受到人们的欢迎。
现有三维动作制作技术可通过在人体身上佩戴传感器,以捕捉人体的动作轨迹而生成动作驱动数据,通过将所述动作驱动数据映射至三维动画的虚拟模型中,以驱动虚拟模型执行相应的表情动作或骨骼动作,从而生成三维动画。
而如何解决在互联网或者线下展演环境中,由实时真人捕捉的动作数据实时驱动三维角色模型,以制作可实时互动的虚拟角色的三维动画,即为本申请待解决的技术课题。
发明内容
有鉴于此,本发明的主要目的在于提供一种可实时互动的虚拟角色生成系统及方法,可生成实时互动的虚拟角色的三维动画,且所生成的三维动画更加逼真。
本申请实施例提供了一种可实时互动的虚拟角色生成系统,其特征在于,包括:模型生成模块,其用于生成虚拟角色的虚拟整体模型,所述虚拟整体模型至少包括虚拟面部模型、虚拟骨骼模型与虚拟附属部位模型;以及模型驱动模块,其用于将所述虚拟整体模型导入驱动引擎中,并实时导入虚拟面部模型动作指令与虚拟骨骼模型动作指令,以借由所述驱动引擎依据所述虚拟面部模型动作指令而实时驱动所述虚拟面部模型执行动作,依据所述虚拟骨骼模型动作指令而实时驱动所述虚拟骨骼模型执行动作,以及依据所述虚拟骨骼模型所执行的所述动作而实时驱动所述虚拟附属部位模型执行动作,从而生成可实时互动的所述虚拟角色的三维动画。
可选地,在本申请的任一实施例中,所述模型生成模块还包括:三维顶点定义单元,其定义用于构成所述虚拟整体模型的三维顶点;面部模型制作单元,其依据用于构成所述虚拟整体模型的面部部分的所述三维顶点,生成所述虚拟面部模型;骨骼模型制作单元,其依据用于构成所述虚拟整体模型的骨骼部分的所述三维顶点,生成所述虚拟骨骼模型;以及附属模型制作单元,其依据用于构成所述虚拟整体模型的附属部分的所述三维顶点,生成所述虚拟附属部位模型。
可选地,在本申请的任一实施例中,所述模型驱动模块还包括面部模型驱动单元,其具有:切割子单元,其用于针对构成所述虚拟整体模型的面部部分的所述三维顶点进行逻辑分类,以形成多个第一三维顶点子集合,且依据所述第一三维顶点子集合切割所述虚拟面部模型而生成局部面部模型;表情制作子单元,其用于定义各所述局部面部模型中的所述第一三维顶点子集合的初始位移状态及最大位移状态,并依据所述初始位移状态与所述最大位移状态定义中间位移状态;以及融合子单元,其用于针对多个所述第一三维顶点子集合之间所产生交集进行效果融合处理。
可选地,在本申请的任一实施例中,所述切割子单元依据面部肌肉分布特征,针对构成所述虚拟整体模型的面部部分的所述三维顶点进行逻辑分类。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京蜜枝科技有限公司,未经北京蜜枝科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810030220.7/2.html,转载请声明来源钻瓜专利网。