[发明专利]基于深度学习融合SVM的步态识别方法在审
申请号: | 202011100223.7 | 申请日: | 2020-10-14 |
公开(公告)号: | CN114373091A | 公开(公告)日: | 2022-04-19 |
发明(设计)人: | 吴军华;苗兴 | 申请(专利权)人: | 南京工业大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/82;G06V40/20;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 210009 江苏省南*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 融合 svm 步态 识别 方法 | ||
1.一种基于深度学习融合SVM的步态识别方法,其特征在于,包括:
步骤1:采用基于深度学习的姿态估计算法对行走录像进行预处理,提取人体关键点特征;
步骤2:从步态序列提取所需特征构建特征向量后,通过使用SVM分类器完成身份识别。
2.根据权利要求1所述的基于深度学习融合SVM的步态识别方法,其特征在于,所述步骤1包括:
步骤1.1:采用Openpose姿态估计算法提取待识别行走录像对应的步态序列;
步骤1.2:使用纠正算法对步态序列中误识别关键点进行纠正。
3.根据权利要求2所述的基于深度学习融合SVM的步态识别方法,其特征在于,所述步骤1.1包括:
步骤1.1.1:使用Openpose对待识别行走录像按照时间顺序对其每一帧进行识别,从行走录像第一帧开始,到最后一帧结束,得到其每一帧对应的人体关键点信息:
Ft=[(xt,0,yt,0),(xt,1,yt,1),...,(xt,c,yt,c)]
式中:Ft表示第t帧的人体关键点信息,c表示人体关键点对应的数字编号,从编号0到编号6对应了鼻子(头部),左髋关节,右髋关节,左膝关节,右膝关节,左踝关节,右踝关节7个关键点。(xt,c,yt,c)表示在第t帧第c个关键点对应的点坐标。
步骤1.1.2:将每一帧的信息汇总后得到待检测者p在第v段视频下的人体步态序列Sp,v=[F0,F1,...,Ft,...,Fn-1]。
4.根据权利要求2所述的基于深度学习融合SVM的步态识别方法,其特征在于,所述步骤1.2包括:
步骤1.2.1:找出开始出错帧,并且识别出该帧出错的关键点,将当前帧的关键点与前一帧进行对比。
判断该帧是否满足开始出现错误的条件如下:
xt-1,c+εb,c<xt,c或者xt-1,c-xt,c>εf,c
式中:xt,c表示待纠正行走视频的第t帧的待检测关节c对应的关键点横坐标。εb,c,εf,c表示关节c的坐标朝移动反方向以及同方向变化阈值。
步骤1.2.2:若找出其实出错帧,则检查该帧之后的帧是否连续出错,找出连续出错帧以及其每一帧中出错的关键点。
判断是否连续出错的条件如下:
xt-1,c+εb,c<xt+i-1,c
或者
式中:i表示对出错帧前一帧后的第i帧进行检测。xt,c表示待纠正行走视频的第t帧的待检测关节c对应的关键点横坐标。εb,c表示关节c的坐标朝移动反方向的变化阈值。δc为同一关键点在相邻两帧内位置变化判断的阈值。
步骤1.2.3:纠正错误的帧的关键点坐标。
纠正关键点坐标的规则如下:
式中:t表示从第t帧开始识别出现错误,k表示连续错误帧数,i表示对连续错误帧内的第i帧进行修复(xt,c,yt,c)表示在第t帧第c个关键点对应的点坐标。
5.根据权利要求1所述的基于深度学习融合SVM的步态识别方法,其特征在于,所述步骤2包括:
步骤2.1:对步态序列进行特征提取,构建特征向量;
步骤2.2:使用SVM分类器完成身份识别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京工业大学,未经南京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011100223.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种自动锁螺丝机的螺丝防呆装置
- 下一篇:水分测量仪的防风罩