[发明专利]一种基于卷积神经网络的监控场景下行人属性识别方法在审
申请号: | 201711226381.5 | 申请日: | 2017-11-29 |
公开(公告)号: | CN107862300A | 公开(公告)日: | 2018-03-30 |
发明(设计)人: | 胡诚;陈亮;张勋 | 申请(专利权)人: | 东华大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 上海泰能知识产权代理事务所31233 | 代理人: | 宋缨,钱文斌 |
地址: | 201620 上海市*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 监控 场景 行人 属性 识别 方法 | ||
1.一种基于卷积神经网络的监控场景下行人属性识别方法,其特征在于,包括以下步骤:
(1)获取含有行人的监控视频,并截取视频帧,构建监控场景下的行人数据集;
(2)通过改进AlexNet卷积神经网络模型,构建新的卷积神经网络模型;
(3)把所述行人数据集输入到所述新的卷积神经网络模型中进行训练,得到行人属性识别模型;
(4)利用所述行人属性识别模型完成识别。
2.根据权利要求1所述的基于卷积神经网络的监控场景下行人属性识别方法,其特征在于,所述步骤(1)包括以下子步骤:
(11)将截取的视频帧按照规定的图片命名方式进行命名,并把全部的图片缩放到统一大小,得到图片文件;
(12)对所有的图片文件进行标注:每一张行人图片上的行人属性都是二进制属性,如果有行人属性,则标签值为1;如果没有行人属性,则标签值为0;
(13)按照广泛采取的实验数据集划分原则,随机的把所述图片文件分为三部分:分别为训练集、验证集和测试集,其中,训练集占总图片文件的50%,验证集占总图片文件的10%,测试集占总图片文件的40%;
(14)根据图片文件的划分构建行人数据集,其中行人数据集包括两部分:一部分为用于模型训练的训练数据,另一部分为用于检验模型训练效果的测试数据。
3.根据权利要求1所述的基于卷积神经网络的监控场景下行人属性识别方法,其特征在于,所述步骤(2)中的AlexNet模型总共有八层,包括5个卷积层和3个全连接层;所述卷积层用于自动提取特征,所述全连接层用于连接所有的特征,并将输出值输入给softmax分类,所述全连接层输出的节点数对应行人属性的类别;所述AlexNet模型的损失函数为其中,N表示图片文件中的数量,L为图片文件中的行人属性的数量,每张行人图片表示为xi,i∈[1,2,...N],每张图片xi对应的行人属性标签向量为yi,每个标签向量yi对应的属性值为yil,yil∈[0,1],l∈[1,2,...,L],如果yil=1表明这个训练样本xi有这个属性;如果yil=0表明这个训练样本xi没有这个属性;表示是行人样本xi的第l个属性的概率。yil是真实属性标签,表示行人样本xi有没有第l个属性。
4.根据权利要求1所述的基于卷积神经网络的监控场景下行人属性识别方法,其特征在于,所述步骤(3)具体包括以下子步骤:
(31)训练之前搭建Caffe环境,然后编译Caffe;
(32)设置模型的学习率和权重衰减,然后在设置的最大迭代学习次数下,不断迭代学习,直至损失函数的损失值最小,模型收敛,保存模型参数;
(33)完成训练得到行人属性识别模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东华大学,未经东华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711226381.5/1.html,转载请声明来源钻瓜专利网。