[发明专利]一种基于DenseNet网络与帧差法特征输入的人体行为识别方法有效

专利信息
申请号: 201910332644.3 申请日: 2019-04-24
公开(公告)号: CN110110624B 公开(公告)日: 2023-04-07
发明(设计)人: 曹毅;刘晨;黄子龙;盛永健;林苗;李巍 申请(专利权)人: 江南大学
主分类号: G06V40/20 分类号: G06V40/20;G06V20/40;G06V10/82;G06N3/0464;G06N3/047;G06N3/048;G06N3/08
代理公司: 无锡盛阳专利商标事务所(普通合伙) 32227 代理人: 顾吉云;黄莹
地址: 214000 江苏*** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提供一种基于DenseNet网络与帧差法特征输入的人体行为识别方法,其可以在占用较少内存和更少训练时间的基础上,在进行人体行为识别的时候取得较高的准确率。其包括:S1:获得待识别动作视频数据;获取待识别动作视频数据的静态灰度图像序列,利用帧差法生成包含运动主体运动特征的运动帧差图;S2:以DenseNet模型为基础构建骨干网络模型,通过骨干网络模型分别搭建时间流网络和空间流网络;S3:分别训练时间流网络和空间流网络,获得训练好的时间流网络和空间流网络;S4:将静态灰度图像序列的序列作为训练好的空间流网络的输入;将运动帧差图的序列作为训练好的时间流网络的输入,获得行为识别最终结果,完成动作识别操作。
搜索关键词: 一种 基于 densenet 网络 帧差法 特征 输入 人体 行为 识别 方法
【主权项】:
1.一种基于DenseNet网络与帧差法特征输入的人体行为识别方法,其包括以下步骤:S1:获得待识别动作视频数据;S2:构建骨干网络模型,通过所述骨干网络模型分别搭建时间流网络和空间流网络;S3:分别训练所述时间流网络和所述空间流网络,获得训练好的所述时间流网络和所述空间流网络;S4:把所述待识别动作视频数据输入到训练好的所述时间流网络和训练好的所述空间流网络,获得行为识别最终结果,完成动作识别操作;其特征在于:步骤S2中所述骨干网络模型是以DenseNet模型为基础构建的,其包括4个Dense Block、3个融合层,所述Dense Block之间设置所述融合层;所述骨干网络模型后面依次连接全连接层;步骤S1中,获得待识别动作视频数据,包括以下步骤:S1‑1:对于所述待识别动作视频数据进行分割采样与色彩空间转换,获取所述待识别动作视频数据的静态灰度图像序列;S1‑2:提取所述静态灰度图像序列间的图像运动信息特征,利用帧差法生成包含运动主体运动特征的运动帧差图;步骤S4中,把所述待识别动作视频数据输入到训练好的所述时间流网络和训练好的所述空间流网络,包括以下步骤:S4‑1:将所述静态灰度图像序列的序列作为所述空间流网络的输入;S4‑2: 将步骤S4‑1中选取的所述静态灰度图像序列对应的所述运动帧差图的序列作为所述时间流网络的输入。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江南大学,未经江南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910332644.3/,转载请声明来源钻瓜专利网。

同类专利
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top