[发明专利]一种基于人体姿态的动作识别方法及装置在审
申请号: | 201810988873.6 | 申请日: | 2018-08-28 |
公开(公告)号: | CN109117893A | 公开(公告)日: | 2019-01-01 |
发明(设计)人: | 陈加;张玉麒;宁国勤;左明章 | 申请(专利权)人: | 华中师范大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06F3/01 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 罗飞 |
地址: | 430079 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 动作识别 角度特征 人体姿态 分类器 人体静态姿势 骨骼数据 技术效果 角度计算 静态姿势 滤波算法 逻辑回归 倒序法 滤波 限幅 改进 | ||
本发明提供了一种基于人体姿态的动作识别方法及装置,其中的方法包括:通过改进的限幅滤波算法得到的滤波后的骨骼数据,通过改进的角度计算方法获得角度特征,对分好类的角度特征基于逻辑回归进行训练,得到训练后的分类器,再通过分类器得到对人体静态姿势的识别结果,最后根据静态姿势的识别结果采用倒序法识别出人体的动作。本发明实现了提升识别速度和提高识别准确性的技术效果。
技术领域
本发明涉及人机交互技术领域,特别涉及一种基于人体姿态的动作识别方法及装置。
背景技术
随着时代的发展,人们呼唤更自然的人机交互方式,将人与人的交互方式引入到人机交互中,被称为“自然”交互方式。这其中包括了一系列对人体、手臂以及手势进行识别的技术。在这些自然的交互方式里,有动作、手势、语音等方式。动作是人和其他物体的重要区别。人们通过姿势来表达一定的信息和情感,比如在体育比赛中,裁判员使用各种姿势来传递信息。因此,寻找一个好的方法来识别人体姿势是非常有必要的。
传统的人体动作识别技术往往使用普通摄像设备、雷达或者一些可穿戴传感器设备等媒介,这些方式分别在识别效率、成本、环境约束等一个或多个方面的缺陷使得这项技术的应用相对受限。2010年微软发布的低成本深度摄像机Kinect为这项技术提供了新的选择,Kinect能够获取较为精确的深度图像,直接将物体的三维特征表现出来,可以在一定程度上避免基于传统二维图像特征的动作识别中可能存在的问题。
申请人在实施本发明的方案时,发现现有技术中采用Kinect获取深度图像后,再进行人体动作识别的方法,由于对识别动作的有较高要求,以及受到光照、识别者不同的影响,算法复杂度较高,识别的准确性也有待提高。
发明内容
有鉴于此,本发明的目的在于提供一种基于人体姿态的动作识别方法及装置,其能够针对人体的动作做出实时识别,对动作识别具有更高的准确率,同时降低了算法的复杂度使其更加易用,解决了现有技术中识别准确率不高的技术问题。
本发明第一方面提供了一种基于人体姿态的动作识别方法,包括:
步骤S1:通过深度传感器的骨骼跟踪技术获取人体的骨骼数据,所述骨骼数据包括人体关节点的三维坐标,将所述三维坐标转换至人体所在的世界坐标系;
步骤S2:利用改进的限幅滤波算法对所述骨骼数据进行滤波,获得滤波后骨骼数据,其中,所述改进的限幅滤波算法具体包括:首先判断本次骨骼数据的抖动程度是否超过阈值,若本次骨骼数据的抖动程度未超过所述阈值,则采用滤波缓冲区的骨骼数据更新本次骨骼数据,否则继续判断上一次骨骼数据的抖动程度是否超过所述阈值,若上一次骨骼数据的抖动程度未超过所述阈值,则采用本次骨骼数据更新滤波缓冲区的骨骼数据;若上一次骨骼数据的抖动程度超过所述阈值,则判断所述本次骨骼数据是否在滤波范围内,若是则采用所述滤波缓冲区的骨骼数据更新所述本次骨骼数据,否则采用所述本次骨骼数据更新所述滤波缓冲区的骨骼数据;
步骤S3:根据转换后的三维坐标和预设角度计算方法对所述滤波后骨骼数据进行特征提取,获得由各个关节点的角度构成的角度特征;
步骤S4:基于逻辑回归算法和所述角度特征对预先获取的训练样本集进行训练,获得分类器;
步骤S5:通过所述分类器对人体的动作进行识别,获得静态姿势识别结果;
步骤S6:基于所述静态姿势识别结果,采用倒序识别法判定五帧内是否识别出两种预设的静态姿势,如果是,则识别出一个动态动作,将其作为动作识别结果。
进一步地,所述深度传感器还获取深度信息,步骤S1具体包括:
步骤S1.1:根据所述深度信息获得深度传感器距离人体的实际距离;
步骤S1.2:根据所述实际距离和坐标转换公式将深度图像的三维坐标转换为世界坐标系下的实际坐标,其中,所述坐标转换公式为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中师范大学,未经华中师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810988873.6/2.html,转载请声明来源钻瓜专利网。