[发明专利]一种基于手的质心坐标的手势运动方向识别方法在审
申请号: | 202011235610.1 | 申请日: | 2020-11-06 |
公开(公告)号: | CN112329646A | 公开(公告)日: | 2021-02-05 |
发明(设计)人: | 王世刚;高阳;韦健;赵云秀;赵岩 | 申请(专利权)人: | 吉林大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T7/66;G06T7/90;G06F3/01 |
代理公司: | 长春吉大专利代理有限责任公司 22201 | 代理人: | 邵铭康;朱世林 |
地址: | 130012 吉林省长春市*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 质心 标的 手势 运动 方向 识别 方法 | ||
一种基于手的质心坐标的手势运动方向识别方法属动态手势识别领域,本发明通过Matlab编程软件与摄像头来获取手部图像、视频帧并实时处理,对得到的视频图像进行预处理,将基于彩色空间的RGB模型转换为YCbCr模型,再利用积分投影法对二值图像分别进行水平和垂直方向的积分投影,得到水平和垂直方向的积分投影直方图后,就可判断出目标物体在整幅图像中的位置,方便求得手部的质心坐标,通过得到的一段时间间隔内的两帧图像中手的不同坐标,进行计算差值与方向角的计算,完成对手的运动方向的判别。本发明增加了对手势运动范围的判定,在对质点的求取以及方位角的判断上更加直观精确,能更加快速准确地识别判断出手势的运动方向。
技术领域
本发明属手势识别技术领域,具体涉及一种基于手的质心坐标的手势运动方向识别方法。
背景技术
近几年来,随着科学技术日新月益的飞速发展,一些面向计算机的交互技术已经逐渐不能满足人们的需求,交互技术已经慢慢从面向计算机向面向自然人转变,也就是人机交互的应用在人们的日常生活中变得越来越普遍。以前的人机交互是以机器为主,而现在的人机交互主要是以人为中心,在以往的人机交互技术中,键盘和鼠标占据了大部分主导地位,然而这种传统的交互方式已经不再利于人机交互技术的发展与推广。而手势作为一种自然、方便、实用的方式,受到了很多人机交互研究者的喜爱以及大众的欢迎。因此,以人为中心的手势识别技术逐渐得到人们的关注与青睐。
对于手势交互来说,就是用简单的手的姿势形状或者运动轨迹来向机器表达自己的想法,并不需要直接触碰它。手势交互对于人机智能交互是十分重要的,特点鲜明,自然方便,并且它的应用领域非常广阔,主要包括:聋哑人手语识别、机器人控制、虚拟现实、智能家居、生活质量提高、智能汽车、工业4.0、智能制造等。
现在的手势识别主要分成两类:一类是静态手势识别,另一类是动态手势识别,其中,静态手势识别主要是根据手的不同姿势与形状来代表不同的含义,不用考虑手的运动轨迹以及特征,比较简单,所以其表达的含义也比较简单,不能够做到充分表示出人们的想法。而动态手势识别不仅需要对手部的区域形状进行分析,还需要对整个手部的运动轨迹信息进行分析,所以更加像是结合了静态的手部区域形状与动态的运动轨迹信息,可以很全面的表达出其丰富的语义内容,可以更好的满足人机交互的需求,所以有更加广阔的应用前景。
手势识别可以使用摄像头采集手势数据,进行分析计算识别相应的手势。也可以是基于惯性传感器的手势识别,这种方法是通过加速度计和角速度计获取目标物的加速度值和角速度值,再结合一系列算法,根据计算出的信息识别相应的手势。手势识别的难点主要在于会有大量的冗余信息,给手势的准确分析和计算造成很大的困难。
发明内容
本发明的目的在于提供一种能快速准确识别判断手势运动方向的基于手的质心坐标的手势运动方向识别方法。
本发明的基于手的质心坐标的手势运动方向识别方法,包括下列步骤:
1.1利用Matlab编程软件与摄像头来获取手部图像,具体步骤如下:
1.1.1读取摄像头:使用Matlab的基本函数a=imaqhwinfo和vid=videoinput读取摄像机的基本属性,并捕获视频帧,得到能实时处理的视频帧;
1.1.2设定重复触发以及帧的抓取时间间隔,进行视频采集,设置一个循环,在采集100帧后停止;
1.2对步骤1.1.2得到的视频图像进行预处理,具体步骤如下:
1.2.1取当前的一帧彩色图像,分别将RGB空间转换为HSV空间和YCrCb空间,然后让皮肤像素在YCrCb空间中指向1,使用简单的YCrCb肤色模型对原始图像进行肤色分割,初步得到粗糙的基本肤色区域;
将基于彩色空间的RGB模型转换为YCbCr模型,公式如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011235610.1/2.html,转载请声明来源钻瓜专利网。