[发明专利]一种基于深度学习的船舶目标检测方法在审
申请号: | 202110649805.9 | 申请日: | 2021-06-10 |
公开(公告)号: | CN113379603A | 公开(公告)日: | 2021-09-10 |
发明(设计)人: | 潘明阳;赵丽宁;李哲林;李邵喜;李超;郝江凌;胡景峰;刘宗鹰;张若澜;孙慧;李航琪 | 申请(专利权)人: | 大连海事大学 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06T7/62;G06T7/10;G06N3/04 |
代理公司: | 大连东方专利代理有限责任公司 21212 | 代理人: | 陈丽;李洪福 |
地址: | 116026 辽*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 船舶 目标 检测 方法 | ||
本发明提供了一种基于深度学习的船舶目标检测方法,涉及目标检测技术领域,该方法包括:获取船舶数据集;对船舶数据集中的船舶图像进行图像拼接;构建船舶目标检测模型;船舶目标检测模型包括轻量化骨干网络和注意力金字塔;轻量化骨干网络包括输入层、平均池化层以及密集连接单元;注意力金字塔包括三个检测分支,分别连接到骨干网络中输出13*13、26*26、52*52尺寸特征图的密集连接单元;注意力金字塔使用有效通道注意力模块,位于所述注意力金字塔的最前端,每一检测分支各一个;利用构建的船舶目标检测模型进行船舶目标检测,得到船舶检测结果。本发明实现了更精准、轻量、实时的船舶检测。
技术领域
本发明涉及目标检测技术领域,特别是涉及一种基于深度学习的船舶目标检测方法。
背景技术
伴随港口吞吐能力的提升、船舶数量的增加,有效的船舶辅助导航和监控方法越来越重要。AIS和雷达作为当前主流的辅助导航和监控设备为船舶的航行和监管提供保障。同时由于计算机视觉技术的飞速发展,船舶目标检测的精度与实时性逐渐提高,可以作为AIS和雷达的补充技术来提供更丰富的信息。另外随着无人船技术的逐步发展,船舶目标检测作为一种环境感知方法,为无人船的自主规划和航行提供了一种新的信息获取方式。
船舶图像数据作为载体可以为目标检测算法提供丰富的信息。船舶图像数据的种类可以大致分为光学遥感图像、合成孔径雷达图像、红外图像和可见光图像。其中光学遥感图像容易受到云雾的干扰,合成孔径雷达图像无法捕捉船舶的颜色与纹理信息,红外图像分辨率较低且易受噪声干扰。可见光图像包含较为稳定、丰富、细致的图像信息,有利于水面目标的辨识,更适合应用于辅助导航与监控。
基于可见光的船舶目标检测的任务是对图像数据中的船舶目标进行辨别与定位。基于滑动窗口的目标检测算法虽然实现简单,但是存在大量的计算冗余,并且人工设计的特征对于多变的环境没有很好的鲁棒性。目前,基于深度卷积神经网络的目标检测方法在船舶智能导航和船舶监控领域受到越来越多的关注,其在检测精度、速度方面都优于传统算法。卷积神经网络依靠卷积核逐通道对图像进行卷积计算以获得目标的特征,无需人工设计即可得到更可靠的特征泛化能力。
目前,已有的基于深度卷积神经网络的船舶目标检测方法有:
期刊论文:董超,冯俊健,田联房,郑兵.梯度纹理直方图与多层感知器船舶快速检测[J].红外与激光工程,2019,48(10):290-299.
该论文提出基于梯度纹理直方图特征与多层感知器的船舶快速检测算法,其基本思路是:首先基于二值梯度的特征训练船舶候选区模型,以快速生成具有高召回率的少量船舶候选窗口,并在每个候选窗口提取梯度纹理直方图特征;其次设计一个多层感知器作为船舶分类器,对提取到的梯度纹理直方图特征进行判别。
该方法中,基于滑动窗口和特征直方图的特征提取方式具有一定的局限性,对于船舶目标而言,无法充分表达船舶的语义,鲁棒性不好;另外,多层感知机结构简单,无法实现多尺度的目标检测。
期刊论文:王炳德,杨柳涛.基于YOLOv3的船舶目标检测算法[J].中国航海,2020,43(01):67-72.
该论文提出了提出一种基于YOLOv3算法的船舶目标检测方法,可用于视频图像的监测与跟踪。该方法采用k-means聚类先验框、mixup、标签平滑化等方法对算法进行改进和优化。
该方法中,虽然使用Mixup和标签平滑化对船舶数据进行了处理,具有正则化效果,但是其89.90%的检测准确率不算高,且YOLOv3模型体积较大,并不适合应用普及。
可见,目前已有的这类算法并不完美,卷积层越多的模型虽然可以得到更好的泛化能力与检测精度,但是这种复杂的模型要求硬件设备具有非常高的算力,也会影响检测速度,不利于应用普及。
发明内容
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连海事大学,未经大连海事大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110649805.9/2.html,转载请声明来源钻瓜专利网。