[发明专利]基于稀疏子空间聚类的视频人体行为识别方法有效
申请号: | 201510114150.X | 申请日: | 2015-03-16 |
公开(公告)号: | CN104732208B | 公开(公告)日: | 2018-05-18 |
发明(设计)人: | 郝宗波;桑楠;陆霖霖;吴杰;杨眷玉;万士宁;赵俊;朱前芳;鄢宇烈 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 电子科技大学专利中心 51203 | 代理人: | 詹福五 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 稀疏 空间 视频 人体 行为 识别 方法 | ||
1.一种基于稀疏子空间聚类的视频人体行为识别方法,包括:
A.建立视频人体行为识别的模型:
A1.建立三维时空子帧立方体:将用于学习的人体行为数据库的同一类别人体行为视频上的每一帧划分为相同大小的子帧,然后将组成相应人体行为视频的部分连续帧的时间序列长度作为其厚度,以建立三维时空子帧立方体,并对所得各子帧立方体在原人体行为视频相同的类别标签下分别标注其子标签;
A2.建立人体行为特征空间:将步骤A1所建各三维时空子帧立方体连同其人体行为视频的类别标签输入到基于深度学习的神经网络、进行第一次训练,以提取超过人体行为数据库中给定行为类别平均识别率达到50%的用于分类的特征,建立第一次训练后的人体行为特征空间;
A3.聚类处理:对步骤A2所建人体行为特征空间,利用稀疏子空间聚类方法分别对行为特征空间中的每一类人体行为特征进行聚类处理,以将同一类人体行为特征再细分为子类行为特征;行为特征子类的个数根据稀疏子空间聚类方法自动确定;
A4.标签的更新:根据步骤A3中稀疏子空间聚类方法细分的结果,在原人体行为视频相同的类别标签下分别对聚类细分后的各行为特征子类视频赋予其子标签,得更新标签后的样本;
A5.建立视频人体行为识别模型:将步骤A4所得更新标签后的样本输入到与步骤A2相同的基于深度学习的神经网络进行第二次训练,以进一步提取人体行为特征,然后将提取出的行为特征输入分类器进行分类处理,从而建立用于视频人体行为识别的模型;并保存第二次训练后神经网络参数,待用;
B.人体行为的识别:
B1.从监视视频中提取三维时空子帧立方体:采用与步骤A1相同的方法,对监视到的每段人体行为视频分别提取与步骤A1大小及数量相同的三维时空子帧立方体,然后转步骤B2;
B2.人体行为特征提取:将步骤B1提取的各段视频的三维时空子帧立方体分别输入到经步骤A5训练好并保存待用的神经网络中,以提取各段视频的人体子行为特征;
B3.确定各视频人体子行为的类别:将步骤B2中提取到的各段视频人体子行为特征,分别输入分类器分类,对各段监控视频依次进行分类处理,得到带各子类别标签的视频;
B4.带子类别标签视频的归类合并:将步骤B3所得带各子类别标签的视频,按照Hollywood2人体行为数据库所分大类归类合并,即得各视频人体行为所属行为类别,存储以备调用。
2.按权利要求1所述基于稀疏子空间聚类的视频人体行为识别方法,其特征在于在步骤A1中所述用于学习的人体行为数据库为Hollywood2或KTH、HMDB51、UCF101、Sports 1M人体行为数据库。
3.按权利要求1所述基于稀疏子空间聚类的视频人体行为识别方法,其特征在于在步骤A2中所述基于深度学习的神经网络为独立子空间分析神经网络。
4.按权利要求1所述基于稀疏子空间聚类的视频人体行为识别方法,其特征在于在步骤A3中所述利用稀疏子空间聚类方法,其步骤如下:
A3-1.将A2步骤所得行为特征空间中各人体行为视频的特征以列为主序排列并生成一个字典,再利用稀疏编码方法确定其稀疏系数;
A3-2.对稀疏系数进行归一化处理;
A3-3.组成同一类人体行为特征图:对步骤A3-2所得稀疏系数取绝对值后加上其转置,得邻接矩阵;进而组成以各个视频样本作为节点、邻接矩阵表示权重的同一类人体行为特征图;
A3-4.聚类细分处理:利用稀疏子空间聚类方法对步骤A3-3所得同一类人体行为特征图聚类细分成各行为特征子类。
5.按权利要求1所述基于稀疏子空间聚类的视频人体行为识别方法,其特征在于在步骤A5和B3中所述分类器为Softmax分类器。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510114150.X/1.html,转载请声明来源钻瓜专利网。