[发明专利]一种网球动作捕捉和解析方法无效
申请号: | 201210537628.6 | 申请日: | 2012-12-13 |
公开(公告)号: | CN103106411A | 公开(公告)日: | 2013-05-15 |
发明(设计)人: | 徐玉文 | 申请(专利权)人: | 徐玉文 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;A63B69/38;A63B71/06 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 239000 安徽省*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 网球 动作 捕捉 解析 方法 | ||
技术领域
本发明属于计算机图像处理技术、动作捕捉解析技术及虚拟现实技术交叉领域,尤其是涉及一种网球动作捕捉与解析方法。
背景技术
目前,新世代株式会社CN1662283公开了一种网球游戏系统,该系统包括通过AV电缆连接到电视接收机的游戏机和向该游戏机提供操作输入的球拍型输入装置,游戏者通过操作该球拍型输入装置指示监视器画面上显示的击球侧网球手打球。此时,游戏机所包含的游戏处理器计算对方网球手的返球预测位置,并将这时的击球侧网球手的现在位置与其预测返球位置作比较,判断预测返球位置是否在击球侧网球手的击球可能范围内,若该判断装置判断为在击球可能范围外,则击球位置移动装置即游戏处理器移动击球位置。
目前,在人机交互领域比较常用的运动追踪技术是惯性追踪技术和光学追踪技术。惯性追踪技术特点是实现简单,抗干扰性强;缺点是不能全面地获取被追踪目标的运动特征,只能有限和局部地反映被追踪目标的运动特点。光学追踪技术特点是能全面地反映物体的运动情况,精度高;缺点是实现较为困难,且追踪的范围较小。上述发明都只用到了其中的某一单个技术,其技术来源单一,缺点明显。
发明内容
本发明的目的是提供一种利用虚拟现实技术以及光学追踪与惯性追踪相结合的方法,降低动作识别系统的复杂程度,提高动作识别系统的稳定性和抗干扰性,有效扩大运动追踪范围并及时反馈运动信息,实现较大范围内特定运动信息的采集与处理,并将之应用于网球动作捕捉和解析,为虚拟现实技术在人机互动网球教学与训练中的应用提供解决方案。
本发明解决其技术问题所采用的技术方案是:
一种网球动作捕捉和解析方法,包括以下步骤:
A、将标记点与网球拍绑定,将摄像头安装在运动区域的正前方,用于捕捉运动区域的图像、获取网球拍标记点运动的惯性参数;
B、采集网球拍的数字图像并输入通用计算机,得到网球拍运动的数字视频图像;采集网球拍标记点运动的惯性参数;
C、对采集的惯性参数和数字视频图像进行解算和多传感器数据融合,获取网球拍标记点运动方式;
D、根据网球拍标记点运动方式识别其动作模式,对捕获的动作进行辨识与解析。
所述步骤C还包括:通过采用相应的传感器信号预处理算法和运动姿态解算算法,利用采集到的惯性参数来推算目标相对地球的瞬时加速度、速度、位置和姿态;根据采集到的数字视频图像,本发明首先通过二值算法提取网球拍运动的特征构图,对特征构图求取其重心,得到特征构图中心位置;接着根据对所选特征的计算,建立特征之间的对应关系;根据特征之间的对应关系,依据BuBumblebee双目测量原理,来实现三维空间目标精确定位;对所述步骤B中获取的网球拍标记点运动方式和惯性参数,通过D-S证据理论的多传感器数据融合算法,得到反映网球拍运动特征的一致性数据。
所述步骤D还包括:
D1、采集各种网球拍运动样本动作模式数据,对预采集的样本动作模式数据进行标注;
D2、逐一从所述样本动作模式数据中提取出反映网球拍运动本质特征的特征向量;
D3、根据所述特征向量划分所属类别区域,使得划分后的各个不同类别区域中只包含同类样本的特征向量,建立从特征向量到所属类别之间映射关系的分类器;
D4、对待检测的网球运动动作模式数据进行处理,提取其特征向量;
D5、将待检测的动作模式数据的特征向量输入到所述分类器,分类器根据其特征向量进行判别,得到对该待检测的动作模式数据的辨识结果,并对辨识结果进行动作语义解析。
所述步骤D2还包括:
D21、对所述样本动作模式数据进行预处理,得到网球动作数据;
D22、从网球动作数据中提取反映其本质特征的特征成分;
D23、将所述特征成分进行组合,得到所述特征向量。
所述步骤D4还包括:
D41、对所述待辨识网球动作模式数据进行预处理,得到辨识数据;
D42、从辨识数据中提取反映辨识数据本质特征的特征成分;
D43、将所述特征成分进行组合,得到所述特征向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于徐玉文,未经徐玉文许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201210537628.6/2.html,转载请声明来源钻瓜专利网。