[发明专利]一种基于深度视频的人体行为识别方法有效
申请号: | 201711162729.9 | 申请日: | 2017-11-21 |
公开(公告)号: | CN108038420B | 公开(公告)日: | 2020-10-30 |
发明(设计)人: | 肖阳;陈俊;曹治国;熊拂;张博深;胡桂雷 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T7/50 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 廖盈春;李智 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于深度视频的人体行为识别方法,属于视频信息处理技术领域。本发明方法首先对视频序列的人体目标检测与行为定位,然后对视频的多视角投影形成多视角子视频序列,再对视频进行的动态图编码,之后采用多卷积神经网络模型进行训练提特征,再对特征进行PCA降维处理,最后训练线性支撑向量机分类器,利用支撑向量机分类器获得待测深度视频的行为识别结果;本发明方法从深度图的特点与视频编码的角度出发,充分挖掘图像中的空间信息,降低了处理视频的复杂性,采用的深度学习方法提供了强的特征表达能力,相对于现有其他的传统方法,该方法在算法复杂性、特征表达与识别精度上具有明显的优势。 | ||
搜索关键词: | 一种 基于 深度 视频 人体 行为 识别 方法 | ||
【主权项】:
1.一种基于深度视频的人体行为识别方法,其特征在于,所述方法包括:(1)对数据集中深度视频采用多视角投影,获得深度视频的多个视角的子视频帧序列;(2)对每个子视频帧序列使用动态图编码,将子视频帧序转化为动态图;(3)对所有视角的动态图进行分组并训练各组的深度卷积神经网络,分别提取各组深度卷积神经网络全连接层的特征并串联起来作为各组的多视角特征;(4)所有多视角特征分别进行降维处理,再将降维后所有多视角特征串联起来作为最终特征,然后针对最终特征采用多类分类策略训练线性的支撑向量机分类器;(5)将待识别深度视频经过多视角变换和动态图编码,再使用训练好的卷积神经网络提取特征后输入到支撑向量机分类器,输出结果即为人体行为识别结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201711162729.9/,转载请声明来源钻瓜专利网。
- 上一篇:移位寄存电路及移位寄存单元
- 下一篇:智能接待服务方法及系统