[发明专利]基于深度学习反卷积网络的候选边框生成和目标检测方法在审
申请号: | 201910128720.9 | 申请日: | 2019-02-21 |
公开(公告)号: | CN109948607A | 公开(公告)日: | 2019-06-28 |
发明(设计)人: | 师君;王琛;周泽南;周远远;杨夏青 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06N3/04;G06N3/08 |
代理公司: | 成都虹盛汇泉专利代理有限公司 51268 | 代理人: | 王伟 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 反卷积 目标检测 边框 网络 网络模型 检测 边框生成 检测图像 解析信息 所在区域 网络提取 数据集 自适应 构建 卷积 解析 集合 学习 | ||
1.一种基于深度学习反卷积网络的候选边框生成和目标检测方法,其特征在于,包括以下步骤:
A、获取检测图像数据集、图像像素类别标注和目标边框标注,并将检测图像数据集划分为检测图像训练集和检测图像测试集;
B、采用包含卷积神经网络和反卷积网络的基于反卷积网络候选边框生成网络及候选边框分类与回归网络的目标检测网络结构,构建基于反卷积网络的目标检测网络模型;
C、利用步骤A中得到的检测图像训练集对步骤B构建的基于反卷积网络的目标检测网络模型进行训练;
D、利用步骤C训练后的基于反卷积网络的目标检测网络模型对步骤A中得到的检测图像测试集进行检测,并采用平均精度平均值对检测结果进行评估。
2.如权利要求1所述的基于深度学习反卷积网络的候选边框生成和目标检测方法,其特征在于,所述步骤B中,构建基于反卷积网络的目标检测网络模型具体包括以下分步骤:
B1、设置目标检测网络模型的输入层参数,对图像进行预处理;
B2、将预处理后的图像作为卷积神经网络的输入层,得到共享特征图;
B3、采用反卷积网络对共享特征图进行解析,得到候选边框;
B4、采用候选边框分类与回归网络对候选边框分类与回归处理,得到边框及其对应的整数表示的类别。
3.如权利要求2所述的基于深度学习反卷积网络的候选边框生成和目标检测方法,其特征在于,所述步骤B3中,还包括采用多层特征融合方式,将反卷积网络中设定反卷积层得到的得到共享特征图与卷积网络中设定卷积层得到的得到共享特征图进行融合,作为反卷积网络中反卷积层的输入层。
4.如权利要求3所述的基于深度学习反卷积网络的候选边框生成和目标检测方法,其特征在于,所述步骤B4中,所述候选边框分类与回归网络包括四层全连接层,其中前两层全连接层依次连接并与ROI Pooling层连接,后两层全连接层分别作为候选边框分类分支和回归分支网络输出层。
5.如权利要求4所述的基于深度学习反卷积网络的候选边框生成和目标检测方法,其特征在于,所述步骤C中,训练基于反卷积网络的目标检测网络模型的损失函数表示为
L=LDeRPN+L2
L2(p,u,t,t*)=Lcls(p,u)+λ[u≥1]Lloc(t,t*)
其中,L为损失函数,P,Gc分别为基于反卷积网络的候选边框生成网络的输出与像素类别标注,Pi,分别表示基于反卷积网络的候选边框生成网络的输出中第i个像素点对应类别概率与其对应像素类别标注,i为遍历网络输出中的M×N个像素点时所用序数,p,u,t,t*分别为候选边框分类与回归网络输出概率、目标边框标注的真实类别、候选边框分类与回归网络输出边框及目标边框标注的真实边框,M、N为图像的高和宽,Lcls(p,u)为边框分类损失,Lloc(t,t*)为边框回归损失,λ为控制边框分类损失和边框回归损失平衡的超参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910128720.9/1.html,转载请声明来源钻瓜专利网。