[发明专利]虚拟人运动规划的方法及其系统有效
申请号: | 201010140864.5 | 申请日: | 2010-04-02 |
公开(公告)号: | CN101840586A | 公开(公告)日: | 2010-09-22 |
发明(设计)人: | 李淳芃;宗丹;夏时洪;王兆其 | 申请(专利权)人: | 中国科学院计算技术研究所 |
主分类号: | G06T15/70 | 分类号: | G06T15/70 |
代理公司: | 北京律诚同业知识产权代理有限公司 11006 | 代理人: | 祁建国;梁挥 |
地址: | 100080 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 虚拟 运动 规划 方法 及其 系统 | ||
技术领域
本发明设计虚拟人合成技术,尤其涉及虚拟人运动规划方法及其系统。
背景技术
近年来,虚拟人合成技术的应用日益广泛。从影视动漫到广告制作、从网络游戏到体育训练、从虚拟维修到安全预演,诸多领域都涉及虚拟人合成技术。然而,作为这些应用的基础,如何对虚拟人的运动进行规划并合成出具有一定智能的虚拟人运动为需要解决的技术问题。
传统的虚拟角色动画大都是由经验丰富的动画师手工编辑生成。动画师通过3D工具软件设定关键帧时刻的人体静态姿态,再生成关键帧之间的中间姿态。由于角色的自由度较高,这种传统的编辑方法需要消耗大量的人力和时间,而且生成的动画结果依赖于动画师的经验。
近些年来,运动捕获设备的出现为虚拟角色动画合成提供了一种新思路。该技术利用专门的设备捕捉演员的真实动作,然后将这些数据映射到动画角色上。这种方法由于运动捕获设备真实地记录了角色的运动,因此能够生成逼真、自然的虚拟角色动画,并且效率较高。然而,捕获的运动数据只能应用于特定的环境,当虚拟环境改变时,直接使用运动捕获数据就会出现问题。其次,直接重用运动捕获数据无法生成需要规划的虚拟人运动。最后,要从一个大的数据库中实时地搜索出合适的运动,以匹配给定环境实现困难。无法将数据驱动方法用于复杂环境的虚拟人运动规划中。
针对虚拟人运动规划中遇到的各种问题,现有技术中具有不同的方法。基于增强学习的运动规划方法是现有技术中有效的运动合成方法之一。所谓增强学习是指从环境状态到动作映射的学习,以使动作从环境中获得的累积回报值最大,从而使虚拟角色在环境中学习得到最佳动作序列。增强学习的方法具体描述参见Near-optimal character animation with continuouscontrol,ACM Transactions on Graphics,2007,26(3):402-408。应用增强学习的方法合成虚拟人运动。其步骤主要包含:(1)在对大规模数据库进行分析的基础上,得到具有相似运动结构的一系列样本运动,使得该类运动具有相同的约束帧,例如,相同的脚着地阶段,从而防止运动融合时产生的脚步滑动等问题;(2)用户定义一个代价函数,用该函数度量给定状态下选择某个运动片段的代价,例如,对于一个沿给定路径行走的动作序列,选择远离该路径的运动片段比选择沿着该路径的运动片段代价要大;(3)在状态空间进行高密度采样,将每个状态的长期代价定义为该状态的值函数;(4)合理选取一组基函数,并用该组基函数的线性组合表示值函数。采用线性规划的方法就可以优化得到基函数的加权系数。然而,这种基于线性规划的增强学习运动合成方法具有如下缺点:(1)该方法基于这样一个前提假设,前提假设为值函数可以看作一组基函数的线性组合,若基函数选择不当,则不能收敛;并且当基函数的数目增加时,优化过程的效率低下。(2)能够处理的运动类型单一,该方法要求样本运动具有相同的约束帧,以防止运动融合过程中可能出现的脚步滑动问题。不同类型的运动由于不具有相同的约束帧,因此无法用于模型训练。
发明内容
为解决上述问题,本发明提供了虚拟人运动规划方法及其系统,能够选择不同类型的运动片段作为样本数据,并在运动合成时避免耗时计算。
本发明公开了一种虚拟人运动规划方法,包括:
步骤1,通过运动捕捉设备获得虚拟人的运动数据;
步骤2,创建增强学习模型,所述增强学习模型包括通过采样环境获得的状态、通过采样所述运动数据获得的动作,配置的状态对应于动作的一次性奖惩值,以及状态对应于动作的累计奖惩值,并初始化所述累计奖惩值;所述状态表示虚拟人在环境中的空间位置和姿态,所述动作表示虚拟人的一组姿态;
步骤3,应用所述一次性奖惩值和所述累计奖惩值,以及所述状态的后续状态对应于各个动作的累计奖惩值,对状态对应于动作的累计奖惩值进行迭代更新,获得收敛的状态对应于动作的累计奖惩值;
步骤4,对于给定的虚拟人的状态,根据所述的状态对应于动作的累计奖惩值从所述采集获得的动作中选择从所述给定的虚拟人的状态到设定的目标状态间的动作。
所述步骤2进一步为,
步骤21,对环境进行抽样,获得多个状态,所述状态组成状态集合;
步骤22,对运动数据序列中的运动片段进行采样选择,以被选择的运动片段作为动作,所述动作组成动作集合;
步骤23,根据设定的目标状态配置一步奖惩矩阵,所述一步奖惩矩阵用于记录每个状态对应于每个动作的一次性奖惩值;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院计算技术研究所,未经中国科学院计算技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201010140864.5/2.html,转载请声明来源钻瓜专利网。
- 上一篇:自锁式闸门装置
- 下一篇:一种基于无线电信号定位及指纹认证的腕表形监控装置