[发明专利]一种基于姿态指导的步态识别方法有效
申请号: | 201911302215.8 | 申请日: | 2019-12-17 |
公开(公告)号: | CN112989889B | 公开(公告)日: | 2023-09-12 |
发明(设计)人: | 唐琎;赖普坚;肖晓明;高琰;肖志红;李丰军 | 申请(专利权)人: | 中南大学 |
主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V10/25;G06V10/74;G06V10/80 |
代理公司: | 长沙市融智专利事务所(普通合伙) 43114 | 代理人: | 姚瑶 |
地址: | 410083 湖南*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 姿态 指导 步态 识别 方法 | ||
1.一种基于姿态指导的步态识别方法,其特征在于,包括如下步骤:
S1:采集样本个体的的行走视频作为步态数据并进行预处理;
其中,将所述行走视频拆分为连续的步态图片序列并进行预处理得到人体姿态序列图和行人轮廓图;
S2:分别将每个样本个体对应的步态周期内的行人轮廓图输入R(2+1)D结构的静态信息网络得到静态特征以及基于时序堆叠网络由步态周期内的人体姿态序列图得到姿态特征;
其中,所述步态周期为从任意某一侧足的足跟落地开始,到下一次该一侧足跟落地结束之间的连续过程;每个行走视频的每个步态周期分别对应一个静态特征和姿态特征;
S3:基于紧凑性双线性融合方法将同一样本个体的静态特征和姿态特征进行融合得到融合特征;
S4:基于样本个体的融合特征进行网络训练得到步态识别模型;
每次训练过程为:随机选取的两个步态图片序列,并基于两组步态图片序列的融合特征进行网络训练,其中,根据所述两个步态图片序列是否为同一行人进行区别标记;
S5:将待识别个体的行走视频进行所述预处理得到步态图片序列并输入至步态识别模型,再基于待识别个体与数据库中行人的特征远近关系识别数据库中是否存在所述待识别个体,所述数据库中预先存储了行人的行走视频;
步骤S3中融合特征的融合公式如下:
式中,FC为融合特征,FFT(.)表示快速傅里叶变换,表示降维函数,FA表示静态特征,FD表示姿态特征;
步骤S1中得到人体姿态序列图和行人轮廓图的过程是对步态图片序列中的行人进行目标跟踪再进行姿态和轮廓提取,其中,目标跟踪如下:
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)
式中,ci,j表示第i个追踪器对应的运动目标与跟踪结果的线性加权距离,若线性加权距离小于预设阈值,则表示跟踪结果与运动目标是相匹配,否则,不匹配;
λ表示权重系数,d(1)(i,j)表示运动目标在运动状态的卡尔曼预测结果与跟踪结果之间的马氏距离,d(2)(i,j)表示运动目标最近N个成功关联的特征向量集与跟踪结果的特征向量rj之间的最小余弦距离;
其中,dj表示跟踪结果所在的矩形边框的状态(u1,v1,γ1,h1),(u1,v1)是跟踪结果所在的矩形边框的中心坐标,γ1是跟踪结果所在的矩形边框的长宽比,h1表示跟踪结果所在的矩形边框的高度,yi表示第i个追踪器对应运动目标的预测结果所在矩形边框的状态(u,v,γ,h),(u,v)是运动目标的预测结果所在矩形边框的中心坐标,γ是运动目标的预测结果所在矩形边框的长宽比,h是运动目标的预测结果所在矩形边框的高度;Si表示dj与yi之间的协方差矩阵,Ri为运动目标的数据存储空间;
步骤S4中步态识别模型的训练过程是基于对比损失函数进行网络训练,所述对比损失函数如下:
式中,L(Fc,i,Fc,j,θij)为损失值,f(Fc,i)表示基于随机选取的两个步态图片序列中的一个步态图片序列i的融合特征Fc,i得到的模型特征,f(Fc,j)表示基于随机选取的两个步态图片序列对中另一个步态图片序列j的融合特征Fc,j得到的模型特征,θij表示匹配标签,两个步态图片序列为同一行人时,θij为1,否则θij为0;FC为融合特征;
训练原则为:当两个步态图片序列为同一行人时,L(Fc,i,Fc,j,θij)值趋近于0,当两个步态图片序列不为同一行人时的L(Fc,i,Fc,j,θij)值趋近于m值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中南大学,未经中南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911302215.8/1.html,转载请声明来源钻瓜专利网。
- 上一篇:液晶显示基板及其形成方法、液晶显示面板及其形成方法
- 下一篇:电连接器