[发明专利]基于卷积神经网络的多目标检测模型构建方法有效
申请号: | 201810240179.6 | 申请日: | 2018-03-22 |
公开(公告)号: | CN108416394B | 公开(公告)日: | 2019-09-03 |
发明(设计)人: | 张庆辉;万晨霞;卞山峰 | 申请(专利权)人: | 河南工业大学;郑州艾毅电子科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08;G06N3/04 |
代理公司: | 河南科技通律师事务所 41123 | 代理人: | 张晓辉;樊羿 |
地址: | 450001 河南省郑州市*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积神经网络 检测 多目标检测 模型构建 损失函数 多目标 小目标 运算速度快 技术效果 特征提取 子网络 算法 优化 网络 引入 配置 联合 学习 | ||
1.一种基于卷积神经网络的多目标检测模型构建方法,其特征在于,包括以下步骤:
步骤1、搭建Caffe深度学习框架,其中检测模型的配置利用Faster R-CNN算法完成,并用ZF网络进行特征提取;所述ZF网络包括5个卷积层和3个全连接层的共享层;
步骤2、设计用于实时准确地生成多目标区域的ADPN网络;所述ADPN网络包括5个卷积层、1个姊妹卷积层、3个最大池化层和2个额外的卷积层,将第5个卷积层和1对姊妹卷积层输出的特征图组合成一个连接的特征图,用两个额外的卷积层计算多目标的区域,并设置不同滑动窗口的种类用于产生小尺寸多目标区域的滑动窗口;
步骤3、分别利用softmax损失函数和smoothL1损失函数对所述ADPN网络进行优化;所述ADPN网络包括两个输出层,其中,第1个输出层为每个预测区域输出一个类似于目标的分数,通过softmax损失函数对其进行优化,第2个输出层输出每个预测区域的坐标向量,通过smoothL1损失函数对其进行优化;
步骤4、采用随机梯度下降法对所述ADPN网络进行训练;
步骤5、设计用于检测多目标类别和位置的DALN网络;所述DALN网络包括最大池化层和ROI池化层,以及FC6和FC7全连接层,FC7层又分成两个全连接层,即FC_type和FC_ori;FC_type的输出被提供给一个双向的softmax,产生一个类别标签,FC_ori的输出被提供给一个8向的softmax,产生一个位置标签;
步骤6、利用两个softmax损失函数对所述DALN网络进行优化;
步骤7、对所述DALN网络进行训练;
步骤8、对所述ADPN网络和DALN网络进行联合训练,得到检测模型。
2.根据权利要求1所述的基于卷积神经网络的多目标检测模型构建方法,其特征在于,所述步骤2包括以下处理:(a)将所述ZF网络最后三个卷积层输出的特征图组合成一个连接的特征图,然后新增加两个用于计算多目标区域的卷积层,替换原来的全连接层;(b)设置滑动窗口的种类:分别使用三个比率3:2、1:1、2:3和四个尺度框642、1282、2562、5122的滑动窗口,总共预测12种类型的区域;(c)将图像边界外的预测区域丢弃,剩下的区域分别被分配一个代表正负样本的二进制类标签,其中正样本表示区域为目标,负样本表示区域为背景。
3.根据权利要求1所述的基于卷积神经网络的多目标检测模型构建方法,其特征在于,所述步骤3包括以下处理:所述ADPN网络含有两个输出层,使用不同的损失函数:(a)第一个输出层为每个预测区域输出一个表示与目标类似程度的分数,通过softmax损失函数计算;(b)第二个输出层输出每个预测区域的坐标向量loc = (x,y,w,h),x和y表示预测区域的左上角坐标,而w和h表示预测区域的宽度和高度;然后利用smoothL1函数来细化坐标,其函数表达式为 ;对于每个正标签区域fc和真实框loc*,采用损失函数LADPN进行分类训练,其定义为:;其中,,Lcls表示用于分类目标和背景的softmax损失函数,Lbbr表示边界框回归损失函数,p*是真实框标签,α是平衡参数并且α的值为2。
4.根据权利要求1所述的基于卷积神经网络的多目标检测模型构建方法,其特征在于,所述步骤4包括以下处理:(a)采用预训练的ZF模型初始化所述ADPN网络的前五个卷积层,用以防止过拟合;(b)新增加的卷积层权重由零均值高斯分布随机初始化,标准差为0.01;(c)在每次迭代过程中,将被标记的训练数据输入网络中更新参数;(d)在基于多目标置信分数的区域上采用非最大值抑制法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河南工业大学;郑州艾毅电子科技有限公司,未经河南工业大学;郑州艾毅电子科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810240179.6/1.html,转载请声明来源钻瓜专利网。