[发明专利]一种大场景SAR图像细微目标检测方法有效

专利信息
申请号: 201910307904.1 申请日: 2019-04-17
公开(公告)号: CN110135267B 公开(公告)日: 2020-09-25
发明(设计)人: 韦顺军;苏浩;闫敏;周泽南;王琛;张晓玲;师君 申请(专利权)人: 电子科技大学
主分类号: G06K9/00 分类号: G06K9/00;G06K9/62;G06N3/04;G06N3/08
代理公司: 电子科技大学专利中心 51203 代理人: 曾磊
地址: 611731 四川省成*** 国省代码: 四川;51
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提出了一种大场景SAR图像细微目标检测方法,它是基于卷积神经网络和YOLO算法目标检测原理,将SAR图像目标检测变换成回归问题,引入残差网络结构和构建特征金字塔,利用1×1卷积核实现SAR图像目标不同特征层交互及跨尺度预测,使得神经网络更加有利于大场景SAR目标特征提取及小目标实时检测;同时使用K‑means聚类确定边界框,使得神经网络训练所需的锚点框数量更少、模型表示能力更强、任务更容易学习。本发明具有实现简单、检测效率高、检测精度高、检测速度快、适用性好,能够实现对大场景SAR图像细微目标的精确端到端检测。
搜索关键词: 一种 场景 sar 图像 细微 目标 检测 方法
【主权项】:
1.一种大场景SAR图像细微目标检测方法,其特征是它包括以下步骤:步骤1、待检测大场景SAR图像进行初始化和预处理:大场景SAR图像预处理,包括:初始化待检测的SAR图像记为X,X的维数记为N0×N0;初始化N种滑窗切片,滑窗切片维数大小分别记为将N种滑窗切片按照维数大小从小到大排序,得到一个N层图像金字塔;将待检测SAR图像中飞机、船、车、建筑、道路等待检测人造目标进行人工位置和类别标注,得到目标类别的总数记为K,目标类别的位置记为Pk=(xk,yk,wk,hk),k=1,2,…,K,其中(xk,yk)分别记为第k类目标的中心坐标,(wk,hk)分别记为第k类目标的宽和高;采用传统的标准数据增强技术对待检测SAR图像X进行数据增强,得到数据增强后的SAR图像检测数据集,记为Ω,Ω集合中图像总数量记为NΩ;初始化数据集Ω中训练集和测试集图像数量的比例,记为K1:K2;对数据集Ω中的图像按照比例K1:K2随机划分训练集和测试集,得到的训练集记为ΩK1,得到的测试集记为ΩK2;步骤2、构建和初始化卷积神经分类网络模型:采用传统的标准Darknet‑53网络模型构造方法,构建和初始化标准的卷积神经分类网络模型,记为W0c,初始化网络W0c的卷积层数,记为Nc,其中卷积核大小为ci×ci,i=1,3,…,n;初始化网络W0c的残差块层数,记为其中表示第次下采样后的残差块层数;采用传统的标准通道数加倍方法,将网络W0c中池化层后卷积层的通道数加倍,记为采用传统的标准GoogLeNet网络构造方法,将网络中卷积核大小为ci×ci,i=3,…,n之间添加大小为c1×c1的卷积核,记为采用传统的标准批量归一化方法,对网络中每一个卷积层后添加批量归一化层,记为采用传统的标准Darknet‑53网络构造方法,对网络添加K个类别的全连接层,记为采用标准的归一化指数函数(softmax)计算类别置信度,记为Pc;步骤3、训练卷积神经分类网络:初始化步骤2得到网络的图像批量处理大小,记为BS;初始化网络训练参数的学习率,记为LR;初始化网络训练参数的权重衰减率和动量,分别记为WDR和MO;对步骤2得到的网络模型进行随机初始化,得到初始化后网络参数,记为Woldc;采用传统的标准卷积神经分类网络Darknet训练方法,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤2得到的卷积神经分类网络模型采用传统标准的小批量梯度下降法,对网络中网络参数Woldc进行计算,得到计算后的网络参数,记为Wnewc;采用传统标准交叉熵损失函数计算网络的损失函数值,记为Lossoldc;采用传统的标准卷积神经分类网络Darknet方法,利用步骤1中测试集ΩK2对网络参数Wnewc进行测试,得到测试集ΩK2在Wnewc上的损失函数值,记为Lossnewc;若Lossnewc≤Lossoldc,则继续按照传统标准卷积神经分类网络Darknet训练方法继续训练网络并计算网络参数Wnewc和损失值Lossnewc;若Lossnewc≥Lossoldc,则停止训练网络输出当前模型的网络参数Wnewc,该次网络参数Wnewc即为训练得到的卷积神经分类网络的最终网络参数,记为WFc;步骤4、初始化和构建卷积神经检测网络:按照标准YOLOv3网络模型构造方法,对步骤2得到的卷积神经分类网络添加检测层,得到卷积神经检测网络,记为W0;采用步骤4.1至步骤4.4中的方法对卷积神经检测网络W0进行构建,步骤4.1至步骤4.4具体如下:步骤4.1、跨尺度预测采用标准深度学习特征金字塔构造方法对检测网络W0添加特征交互层,得到网络W0的NF层特征金字塔,特征金字塔记为Fii×Fii,ii=1,2,…,NF,其中Fii×Fii为特征金字塔第ii层的特征图;对步骤2得到的网络中特征图从下到上依次取出NF层特征图,记为Fiic×Fiic,ii=1,2,…,NF,其中Fiic×Fiic为第ii层特征图;网络W0中上采样倍数记为nFii,ii=1,2,…,nF;按照标准的特征金字塔方法,将网络W0中的Fii×Fii,ii=1,2,…,NF与Fiic×Fiic,ii=1,2,…,NF特征图和大小为(ci×ci,i=1,3,…,n)的卷积核进行特征融合,得到的检测网络记为步骤4.2、边界框的预测使用标准k‑means聚类方法对步骤1得到的训练集ΩK1进行聚类,得到M个聚类中心作为网络的先验锚点框,其中聚类中心记为其中分别为第i0个聚类中心的坐标;每个边界框预测四个坐标值,坐标值记为(tx,ty,tw,th),对于预测的网格cellj,j=1,2,…,S×S,其中S×S为待检测图划分的网格数;根据图像左上角的偏移(cx,cy)和边界框的宽和高(pω,ph),采用公式bx=σ(tx)+cx,by=σ(ty)+cy计算边界框(bx,bybω,bh),其中σ(tx),σ(ty)为中心点坐标,(bx,by)为偏移后边界框的中心坐标,(bω,bh)为偏移后边界框的宽和高;每个小格cellj会对应B个边界框,记为边界框的宽高范围为步骤1中得到的Mn×Mn;对第i1个边界框通过逻辑回归预测一个物体的得分,记为其中代表该处是否有物体及定位准确度;采用传统的YOLOv3网络模型中标准IOU计算方法,计算预测的边界框与真实的边框值的IoU,如果IoU≥α,那么否则预测的边界框步骤4.3、计算损失函数将步骤1中训练集ΩK1的图像编号随机打乱后排列成一个图像编号向量,记为Limg;按照Limg中图像编号顺序,依次取出一个批量的图像编号,记为LimgB;按照LimgB中图像编号读取训练集ΩK1的图像作为网络的输入,记为S1,其中向量S1的维度大小为(S×S×(B×(5+C)));采用传统的YOLOv3网络模型方法,将向量S1通过检测网络W0计算输出的一组结果向量记为S2,其中向量S2的维度大小为(S×S×(B×(5+C)));其中,S为划分网格数,B为每个网格负责目标个数,C为类别个数;采用损失函数(TSE)公式Loss=lossloc+losscon+lossclass,计算S1和S2的损失函数值,记为Loss,其中lossloc为定位损失,losscon为置信度损失,lossclass为分类损失;步骤5、训练和调整卷积神经检测网络:初始化训练卷积神经检测网络的图像批量处理大小,记为BS1;初始化学习率,记为LR1;初始化权重衰减率和动量,分别记为WDR1和MO1;将步骤3得到的卷积神经分类网络模型的参数WFc作为检测网络的初始化参数,得到初始化后的卷积神经检测网络Wold;采用传统标准的卷积神经检测网络Darknet训练技术,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤4得到的卷积神经检测网络模型采用传统标准的小批量梯度下降法,对卷积神经检测网络Wold的网络参数进行计算,得到新的网络参数,记为Wnew;采用步骤4.3中的损失函数Loss,计算的损失函数值,记为Lossold;采用传统的检测网络Darknet训练技术方法,利用步骤1中测试集ΩK2对Wnew进行测试,得到测试集ΩK2在Wnew上的总损失值,记为Lossnew;若Lossnew≤Lossold,则按照传统的检测网络Darknet训练方法继续训练模型并计算网络参数Wnew和损失值Lossnew;若Lossnew≥Lossold,则停止训练模型输出当前模型的网络参数Wnew,该次网络参数Wnew即为训练得到的卷积神经检测网络的最终网络参数;采用传统检测网络Darknet训练技术中的多尺度训练策略,将网络每经过p个批量训练后,随机选择图像变化尺度因子α=[α12345],将步骤1中图像尺度与α相乘,得到网络的输入图像尺度;将训练网络得到的最终检测网络模型和参数记为Wresult;步骤6、对待检测大场景SAR图像进行检测:初始化待检测大场景SAR图像,记为ΩI;采用步骤1中SAR图像预处理方法对待检图像ΩI进行预处理,得到切片图像,记为ΩT;把切片图像ΩT按照切片图像编号顺序送入步骤5得到的卷积神经检测网络Wresult进行检测,输出切片图像ΩT的检测结果,记为ΩO;采用传统的顺序合并图像方法,将切片图像结果ΩO按照切片图像编号顺序进行合并;采用标准非极大值抑制方法,消除检测网络Wresult中同一目标多次预测及重复框,得到的检测图像结果,记为ΩR;图像ΩR即为最终的大场景SAR图像细微目标检测结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910307904.1/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top