[发明专利]基于位置感知的高分辨遥感图像倾斜船舶目标检测方法有效
申请号: | 202010708200.8 | 申请日: | 2020-07-21 |
公开(公告)号: | CN111860336B | 公开(公告)日: | 2022-02-11 |
发明(设计)人: | 李映;刘凌毅 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06V20/13 | 分类号: | G06V20/13;G06V10/24;G06V10/40;G06V10/762;G06V10/764;G06V10/774;G06V10/80;G06V10/82;G06K9/62;G06N3/04 |
代理公司: | 西北工业大学专利中心 61204 | 代理人: | 刘新琼 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 位置 感知 分辨 遥感 图像 倾斜 船舶 目标 检测 方法 | ||
本发明涉及一种基于位置感知的高分辨遥感图像倾斜船舶目标检测方法,利用UNet‑like多尺度卷积网络提取多尺度深度特征图;利用提取出来的深度特征图通过基于锚点的旋转框回归模型直接预测每个锚点存在船舶的可能性得分和锚点所在预测框的位置;利用位置感知得分校正模型对锚点得分进行校正。本方法利用UNet‑like卷积神经网络提取兼备深度语义特征和浅层细节特征,在保证分类精度的同时提升模型定位精度,提升了小尺寸船舶的检测性能。同时利用位置感知得分校正模型进一步修正候选框得分,提高候选框定位精度。
技术领域
本发明涉及一种遥感图像的船舶目标检测方法,特别是从高分辨遥感图像中检测倾斜密集排列船舶目标的方法。
背景技术
在过去的几十年中,船舶检测一直是遥感领域的热门话题,其对促进国防建设,港口管理和货物运输等方面的发展有重要作用。传统船舶检测算法通过提取并识别船舶的形状和纹理特征来实现船舶检测,此类方法简单易行、可解释性强,但其提取特征多为浅层信息,且设计一种适用于所有船舶的手工特征较为困难。
目前卷积神经网络已在目标检测领域取得了重大进展。但遥感图像中的船舶存在尺寸变化大和图像占比小的特点导致基于深度学习的船舶检测算法生成大量冗余的候选区域,大幅提升了时间复杂度和假样率;同时,船舶长宽比大,常密集排列的特点增加了特征提取和密集船舶定位的难度。《Rotated region based CNN for ship detection》(ICIP.IEEE,2017:900-904.)提出了一种基于旋转区域的CNN用于船舶检测,它使用旋转感兴趣区域(RRoI)池化层提取旋转区域特征并直接回归旋转角度。《Automatic ShipDetection in Remote Sensing Images from Google Earth of Complex Scenes Basedon Multiscale Rotation Dense Feature Pyramid Networks》(Remote Sensing.IEEE,2018:14.)提出了多尺度旋转密集特征金字塔网络,设计了具有多尺度RoI Align的旋转锚策略,以提高旋转对象的特征提取模型的效率。然而,大量的旋转锚增加了物体分类的难度并产生了更多的错误警报。《Rotated Region Based Fully Convolutional Network forShip Detection》(IGRSS.IEEE,2018:673-676.)提出了一种基于全卷积神经网络的旋转船舶检测方法,该方法具有较快的检测速度,但由于正样本和负样本的比例不平衡,在复杂背景下检测的准确性较低。
发明内容
要解决的技术问题
为了进一步提升倾斜船舶目标检测方法的性能,本发明提供一种基于位置感知的高分辨遥感图像倾斜船舶目标检测方法,利用UNet-like多尺度卷积网络提取多尺度深度特征图;利用提取出来的深度特征图通过基于锚点的旋转框回归模型直接预测每个锚点存在船舶的可能性得分和锚点所在预测框的位置;利用位置感知得分校正模型对锚点得分进行校正。本方法利用UNet-like卷积神经网络提取兼备深度语义特征和浅层细节特征,在保证分类精度的同时提升模型定位精度,提升了小尺寸船舶的检测性能。同时利用位置感知得分校正模型进一步修正候选框得分,提高候选框定位精度。
技术方案
一种基于位置感知的高分辨遥感图像倾斜船舶目标检测方法,其特征在于步骤如下:
步骤1:图像预处理:将遥感图像处理成统一地物分辨率和尺寸的图像块,并进行归一化;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010708200.8/2.html,转载请声明来源钻瓜专利网。