[发明专利]一种基于三维人体骨架的人体基本动作实时识别方法有效
申请号: | 201810916374.6 | 申请日: | 2018-08-13 |
公开(公告)号: | CN109344694B | 公开(公告)日: | 2022-03-22 |
发明(设计)人: | 宁小娟;王映辉;李天阳;李建明 | 申请(专利权)人: | 西安理工大学 |
主分类号: | G06V40/20 | 分类号: | G06V40/20;G06F3/01 |
代理公司: | 西安弘理专利事务所 61214 | 代理人: | 韩玙 |
地址: | 710048*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 三维 人体 骨架 基本 动作 实时 识别 方法 | ||
本发明公开了一种基于三维人体骨架的人体基本动作实时识别方法,具体按照确定Kinect的安置角度;根据三维人体骨架定义人体基本动作,得到多个定义动作;利用Kinect获取待识别人体动作,获取待识别人体动作的动作特征,将待识别人体动作与定义动作进行特征匹配,进行待识别人体动作的识别的步骤。本发明一种基于三维人体骨架的人体基本动作实时识别方法,能够通过Kinect实时获取骨骼数据对人体基本动作的动作进行实时识别。
技术领域
本发明属于计算机视觉和模式识别的重要研究内容和交叉学科技术领域,涉及一种基于三维人体骨架的人体基本动作实时识别方法,具体的涉及一种基于Kinect采集的三维人体模型的三维人体骨架的人体基本动作实时识别方法。
背景技术
人体动作识别研究通过计算机对人体动作序列进行一系列分析和辨别。动作序列是一个有序姿态的变化过程,现实中人们一般通过眼睛来捕获动作数据,再经过大脑分析和自己经验的对比从而得出动作类型,所以在人体动作识别的过程中,视觉分析是非常重要的一个部分。目前动作识别已经在智能监控、虚拟现实、高级人机交互、体育运动分析、自动驾驶等多个领域取得了重大的实际应用价值。人体动作识别实质就是利用模型来判断测试的动作是否和先前标定的动作一致,如果一致说明选择的分类模型比较好,因此它是一种对动作分类的方法。随着动作识别应用范围的扩大和研究的深入,已经取得了诸多研究成果。
2007年,Meng等人提出了一种适用于安全系统、人机交互和智能环境的嵌入式计算机视觉应用的人体动作识别系统。利用分层运动历史直方图特征来表示运动信息,提取一个低维特征向量并将其应用到基于支持向量机分类器的人体动作识别系统。由于是对每帧获取直方图然后进行计算,因此整个过程实时性较差。
2010年A.AravindKumar设计了基于视频分析的人体活动识别系统,主要运用了一种使用跟踪像素点的轨迹的方法,该方法利用信号处理技术找出它们的属性,提取其中的特征,用支持向量机对数据进行训练,最终对新视频进行分类。但是在跟踪过程中,需要手动选择感兴趣的点或区域进行匹配,由于仅使用相关系数来匹配感兴趣的最佳匹配区域,当区域旋转或改变其形状时,某些点可能会丢失,对特征提取的影响较大。
2016年Chen等人提出了利用深度和惯性传感器融合的实时人体动作识别系统,该系统利用了两种不同模式的传感器的数据:视觉深度和惯性。将这两种不同的模式传感器的特征通过一个基于决策的融合方法进行实时融合。两种不同模式的传感器的特征融合过程比较复杂,而且对识别的效果影响较大,鲁棒性较差。
发明内容
本发明的目的是提供一种基于三维人体骨架的人体基本动作实时识别方法,能够通过Kinect实时获取骨骼数据对人体基本动作进行实时识别。
本发明所采用的技术方案是,一种基于三维人体骨架的人体动作实时识别方法,具体按照下述方法进行:
步骤1,确定Kinect的安置角度;
步骤2,根据三维人体骨架定义人体基本动作,得到多个定义动作;
步骤3,利用Kinect获取待识别人体动作,获取待识别人体动作的动作特征,将待识别人体动作与定义动作进行特征匹配,进行待识别人体动作的识别。
本发明的特点还在于:
步骤1中具体按照下述方法确定Kinect的安置角度:
根据人体所在平面的法向量和Kinect镜头平面的法向量计算人体所在平面和Kinect镜头平面的夹角:
当人体所在平面的法向量和Kinect镜头平面的法向量都指向人体所在平面的法向量和Kinect镜头平面之间或者是人体所在平面的法向量和Kinect镜头平面的法向量都指向人体所在平面的法向量和Kinect镜头平面之外,则人体所在平面的法向量和Kinect镜头平面的法向量计算人体所在平面和Kinect镜头平面的夹角为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安理工大学,未经西安理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810916374.6/2.html,转载请声明来源钻瓜专利网。