[发明专利]一种自适应群体服装动画建模方法在审
申请号: | 202110140623.9 | 申请日: | 2021-02-02 |
公开(公告)号: | CN112767553A | 公开(公告)日: | 2021-05-07 |
发明(设计)人: | 石敏;侯明;魏育坤;冯文科;毛天露 | 申请(专利权)人: | 华北电力大学 |
主分类号: | G06T17/20 | 分类号: | G06T17/20;G06T5/00;G06N3/08;G06N3/04 |
代理公司: | 北京众合诚成知识产权代理有限公司 11246 | 代理人: | 黄家俊 |
地址: | 102206 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 自适应 群体 服装 动画 建模 方法 | ||
本发明公开了一种自适应群体服装动画建模方法,包括:步骤1:构建基于群体服装视频的视觉显著性预测模型;步骤2:群体场景下服装网格的时空平滑;步骤3:构建多源信息混合驱动的自适应群体服装仿真,采用自适应多精度网格技术实现服装分区域建模,精度调控因子高的区域进行高精度建模,精度调控因子较低的区域则进行低精度建模,过渡区域根据步骤2进行平滑操作,在此基础上进行动力学计算和碰撞检测,从而构建多源信息混合驱动的群体服装动画系统。
技术领域
本发明属于虚拟现实和计算机图形学技术领域,具体涉及一种自适应群体服装动画建模方法。
背景技术
服装动画模拟效果的视觉逼真性,一直是研究者们致力工作的目标。为了得到细腻的服装效果,通常需要对服装模型进行高精度的建模,以表现其丰富的褶皱变形细节。但高精度模型数万个图元,这就需要进行大量的碰撞检测和大规模动力学方程求解,从而花费高昂的计算代价,降低系统性能。
为了解决上述问题,一种有效的解决方案是对服装进行自适应多精度建模,现有方法主要包括:基于变形状态驱动的建模法,即根据动画过程中布料状态估算服装可能出现的高变形区和低变形区,不同变形程度区采用不同精度的模型;基于视点信息驱动的建模方法,即根据摄像机的视点信息,对位于摄像机镜头内和距离摄像机镜头较近的网格面片进行精化,而位于镜头外或背对镜头的网格面片进行粗化。这些方法可以在一定程度上降低计算代价,并保持变形细节。
但已有方法存在的共性问题是:在动画建模时,只考虑服装运动的客观真实性,而完全忽略了人眼主观作用对感知逼真性的影响。事实上,人类视觉系统通过从外界获取图像信息传送入大脑,通过大脑对图像信息进行分析和理解,然后获得对外界信息的感知。视觉感知的敏感度不仅受到光强度、波长的影响,还与记忆与经验等更高层次的心理因素有关。因此,人类视觉系统对于服装不同区域变形的感知将会受到诸多因素的影响;如果单纯考虑构建物理真实的动画模型或者提高服装模型的精度,而完全忽略视觉对感知逼真性的影响,则难以保证最终生成的服装动画的视觉逼真性。
我们研究发现在群体服装动画中,因为场景中同时会出现多个人物角色,而人眼的视觉注意一般在较短时间内一般只会关注少数的区域范围,其他大部分的服装区域则不会被专注到,而且场景中人物角色数量越多,基于视觉显著性的服装建模加速作用越明显。因此,我们考虑构建基于视觉显著性的群体服装动画建模方法。
发明目的
本发明的目的是为了解决现有技术所存在的问题,实现视觉效果逼真的群体服装动画,并且同时大幅提高动画模拟的效率。为了保证群体服装动画视觉效果逼真,同时提高动画模拟计算的效率,本发明公开了一种视觉感知逼真的自适应群体服装动画建模方法,该方法根据群体服装视频采集真实人眼的注视点数据,并根据FCNN全卷积神经网络构建符合人眼视觉感知特性的群体服装显著性预测模型,再结合摄像机的视点运动信息,对服装进行分区域建模以及时空平滑,构建视觉效果逼真的群体服装动画系统。
发明内容
本发明公开了一种自适应群体服装动画建模方法,包括以下步骤:
步骤1:通过真实人眼的眼动数据采集与预处理获得样本数据,根据动画场景和真实场景,采用遥测式GP3型号眼动仪收集受试者真实人眼的注视数据,并将离散的注视点数据高斯卷积化平滑处理,生成所采集到的眼动数据的显著图;
步骤2:构建基于群体服装视频的视觉显著性预测模型,具体包括:将步骤1所生成的眼动数据的显著图作为ground-truth,应用全卷积神经网络FCNN提取并学习群体服装视频中每帧图像的不同语义层次特征,并依据所提取到的层次特征和ground-truth训练得到群体服装视频的视觉显著性预测模型,;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华北电力大学,未经华北电力大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110140623.9/2.html,转载请声明来源钻瓜专利网。