[发明专利]一种基于深度学习的军船、民船自动识别方法在审

专利信息
申请号: 201810295054.3 申请日: 2018-04-04
公开(公告)号: CN108614996A 公开(公告)日: 2018-10-02
发明(设计)人: 刘俊;孟伟秀;黄亮;潘浩;谷雨 申请(专利权)人: 杭州电子科技大学
主分类号: G06K9/00 分类号: G06K9/00;G06K9/62;G06N3/04;G06N3/08
代理公司: 浙江永鼎律师事务所 33233 代理人: 雷仕荣
地址: 310018*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于深度学习的军船、民船自动识别方法,属于基于图像的自动目标识别领域。本发明创造可以在海防,武器装备智能化,态势估计领域应用。该方法针对传统的基于深度学习的目标识别网络各层单向连接,特征表达能力不足的问题,重新设计了一种稠密连接卷积等层的算法模型。使用稠密连接的方式,算法模型复用了每一层的特征,从而提高了算法模型的目标识别平均准确率;算法模型采用全卷积的特征提取方式去除了权重参数过大的全连接层,采用这种方式训练得到的算法模型更小;不仅如此,算法模型解决了梯度弥散、梯度膨胀的问题。
搜索关键词: 算法模型 目标识别 自动识别 卷积 稠密 特征提取方式 自动目标识别 单向连接 领域应用 能力不足 权重参数 态势估计 特征表达 武器装备 重新设计 传统的 连接层 智能化 弥散 准确率 复用 学习 膨胀 图像 网络
【主权项】:
1.一种基于深度学习的军船、民船识别方法,其特征在于,包括以下步骤:步骤(1):通过基于稠密全卷积神经网络的区域采样算法(Dense connected Region Proposal Network,DRPN)生成尽可能少的、高质量的采样区域;步骤(2):通过基于稠密全卷积神经网络的快速区域分类算法(Dense connected Fast Classification Network,DFCN)对DPRN生成的采样区域分类、定位;步骤(3):通过重采样算法对误分类的样本进行二次分类定位;步骤(4):为了使DRPN和DFCN共享卷积层特征,设计了一种算法模型训练方法;其中,步骤(1)重新设计采样算法模型,具体步骤为:步骤(1‑1),采样算法模型名为DRPN,DRPN算法输入为任意尺寸的包含军船、民船的红外或者可见光图片,输出为对应于每一个类的多个采样区域;算法模型是一个自下而上的网状结构,算法模型通过多个稠密卷积块(Dense Block)堆叠而成;算法模型每一层是一个4维矩阵,用元组(n,c,h,w)表示,n表示训练时批处理图片的数量,c表示每一层的通道数,h表示特征图的高度(在输入端表现为输入图片的高),w表示特征图的宽度,其中4维矩阵通过卷积、池化、归一化、线性激活函数(Rectified Linear Units,RELU)等操作不断变换;在单一尺度训练时,将(h,w)大小的输入图片统一调整大小至w=600,h=1000;步骤(1‑2),输入通道的特征图片经过稠密卷积网络层变换后,生成了多个W×H大小的特征图,对于大小为W×H的特征图,将其按照像素点划分为W×H个网格,对于网格的每一个像素点,在特征图上分别取h个尺寸不一的锚点框,因此,对于一个W×H的特征图我们将产生W×H×k个锚点框,这些采样区域包含了大量的前景区域(包含目标)和背景区域(不包含目标),在W×H×k个样本中挑选最能代表样本特征的锚点框;在训练DRPN算法时,采用样本抑制算法(Non Maximum Suppression,NMS)提炼锚点框,对于每一个锚点框,算法都输出相对应的置信得分,置信得分反应了锚点框是前景区域还是背景区域的概率(正负样本的概率);同时,对于每一个锚点,算法预测了k个回归器用于修正位置坐标,负样本不参与回归预测,DRPN算法在深层次的特征图上表现为锚点框对真实目标背景框的非线性回归预测;步骤(1‑3),为了共享稠密卷积网络的计算量和存储空间,同时做到端到端的训练和测试,采用联合代价函数训练DRPN;对于每一个锚点框,稠密区域采样算法需要输出锚点框是正负样本的概率,采用多分类的softmax代价函数,在DRPN算法中,softmax表现为二分类的代价函数(即退化为逻辑回归代价函数),对于n个锚点框,算法输出2×n个置信得分,如下所示softmaxloss代价函数,m表示批处理样本的大小,k表示softmax输出单元的数量,这里二分类k=2,如下所示,中pi表示预测的锚点框置信得分,如果一个锚点框为负样本,为0,如果一个锚点框为正样本,为1,用于控制坐标回归代价函数的执行:如果锚点框是背景区域则训练时不进行坐标回归(只有前景区域才有修正坐标的价值),公式如下:前景锚点框粗略的表示了前景区域在一张图片中的坐标位置,算法对前景区域进行坐标回归,如下所示:G表示真实背景框,P表示锚点框,函数F表示一个锚点框到真实背景框的映射函数。真实背景框G用元组(Gx,Gy,Gw,Gh)表示,其中(Gx,Gy)表示真实背景框中心点坐标,(Gw,Gh)表示真实背景框对应的宽和高;借助于深度学习高超的函数逼近能力,F不需要手工设置,它是通过深度学习算法多次训练迭代的方式学习得到,本文中通过DRPN算法获取,如下式所示:Fx(P)、Fy(P)、Fw(P)、Fh(P)需要算法学习得到,使用F*(P)表示对应函数映射关系(*表示x,y,w,h),在卷积神经网络中有下式,其中φ(P)表示算法中间层学习得到的特征图矩阵,表示算法学习到的权重,公式如下:G=F(P)Gx=PwFx(P)+PxGy=PhFy(P)+PyGw=Pwexp(dw(P))Gh=Ph exp(dh(P))w*通过最小化代价函数获得,λ为正规化参数,λ=1000,t*为待回归的对象,公式如下:tx=(Gx‑Px)/Pwty=(Gy‑Py)/Phtw=log(Gw/Pw)th=log(Gh/Ph)步骤(1‑4),在分别设定了分类和区域采样算法的代价函数后,设计代价函数联合计算采样区域的类别损失(LOSS)和位置损失,通过这种方式算法做到了端到端的训练;如下式所示:算法设计了一个联合代价函数,Lcls和Lreg分别表示分类和锚点框回归的代价函数,其中Ncls表示一次训练选取的锚点框数量(如256)或者Nreg表示选取锚点框的特征图大小(如2400),λ设置为10,公式如下:在分别设定了分类和区域采样算法的代价函数后,;采用的代价函数联合计算了采样区域的类别损失(LOSS)和位置损失,通过这种方式算法做到了端到端的训练;Lcls和Lreg分别表示分类和锚点框回归的代价函数,其中Ncls表示一次训练选取的锚点框数量(如256)或者Nreg表示选取锚点框的特征图大小(如2400),λ设置为10,公式如下:
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201810295054.3/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top