[发明专利]一种基于轻量型卷积网络的多角度声呐图像目标分类方法在审
申请号: | 202310002666.X | 申请日: | 2023-01-03 |
公开(公告)号: | CN116343016A | 公开(公告)日: | 2023-06-27 |
发明(设计)人: | 巩文静;田杰;刘纪元 | 申请(专利权)人: | 中国科学院声学研究所 |
主分类号: | G06V20/05 | 分类号: | G06V20/05;G06V10/40;G06V10/764;G06V10/82;G06N3/0464;G06N3/08 |
代理公司: | 北京方安思达知识产权代理有限公司 11472 | 代理人: | 武玥;杨青 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 轻量型 卷积 网络 角度 声呐 图像 目标 分类 方法 | ||
本发明涉及水下目标识别领域,尤其涉及基于轻量型卷积网络的多角度声呐图像目标分类方法,所述方法包括:(1)对声呐图像进行处理,获得多角度声呐图像数据集;(2)获取图像训练集与验证集;(3)构建基于轻量型网络的多角度声呐图像目标分类模型;(4)利用数据集对上述模型进行迭代训练;(5)获取目标分类结果。本发明利用多个角度的声呐图像进行目标分类,相较于单角度图像而言能够更加全面地描述目标散射特性,由此对目标进行属性判别,拥有更高的准确度,同时轻量化的网络模型也能够减小资源消耗,为实际应用提供可能。
技术领域
本发明涉及水声信号处理领域,尤其涉及一种基于轻量型卷积网络的多角度声呐图像目标分类方法。
背景技术
近年来,声呐成像技术日渐成熟,目前已经成为水下图像获取的重要途径,在军事以及民用领域都有广泛的应用。声呐设备可以直观地提供水下目标的全局信息,对水下光源没有依赖,实用性强。声呐图像是目标散射信息在二维图像中的映射,可能存在混叠、畸变,这使声呐图像在视觉上更难解释与理解。因此,从声呐图像中识别出目标的真实属性,是一直以来的研究热点。
随着深度学习相关理论的发展,基于深度学习的目标识别技术得到了广泛应用,很多学者设计了不同的卷积网络来对声呐图像中的目标进行检测和识别,并取得了较好的效果,但是大多数方法均基于单角度声呐图像。在声呐成像过程中,对于同一观测目标,不同角度下所得目标的声呐图像会有较大差别,而不同目标在某一角度下又具有较大的相似性。因此,基于单角度声呐图像的目标识别具有一定局限性。
同一目标的多角度声呐图像序列中蕴含着目标在多个角度的散射回波,更加精细地刻画出目标的散射特性,将多个视角的目标声图融合成一幅图像,能够充分利用目标在不同视角下的共有信息,但是融合方式的选择以及目标分类网络的构建均会对目标分类效果产生影响。
总之,在水下目标多角度声呐图像分类任务中,目前急需一种既能够充分利用目标信息又能灵活部署到现有设备的目标分类方法,以提高后续目标分类的准确率与效率。
发明内容
本发明的目的在于克服现有技术缺陷,提出了一种基于轻量型卷积网络的多角度声呐图像目标分类方法。
为达到上述目的,本发明通过下述技术方案实现。
本发明提出了一种基于轻量型卷积网络的多角度声呐图像目标分类方法,所述方法包括:
将目标的多个角度的单通道声呐图像预处理后进行信息融合,获得目标的多角度声呐图像;
将目标的多角度声呐图像输入预选建立并训练好的基于轻量型卷积网络的多角度声呐图像目标分类模型中,得到目标分类结果;
其中,所述多角度声呐图像目标分类模型通过对轻量型MobileNetV2网络改进得到;所述对轻量型MobileNetV2网络改进,包括:去掉轻量型MobileNetV2网络中特征提取卷积层Conv2之后的网络层,并修改特征提取卷积层Conv2的通道数;添加Flatten层实现降维操作,并且添加Dropout层进行随机丢弃,最后添加一个全连接层对结果进行分类。
作为上述技术方案的一种改进,所述多角度声呐图像目标分类模型具体包括:特征提取模块和分类模块;其中,
所述特征提取模块包括输入层Input、特征提取卷积层Conv1、瓶颈层Bottleneck1-Bottleneck7、特征提取卷积层Conv2、Flatten层和Dropout层;其中,特征提取卷积层Conv2的通道数为128,Dropout层的丢弃率为0.5;
所述分类模块包括一个全连接层。
作为上述技术方案的一种改进,所述多角度声呐图像目标分类模型的处理过程具体包括:
输入层Input将目标的多角度声呐图像送入特征提取卷积层Conv1;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院声学研究所,未经中国科学院声学研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310002666.X/2.html,转载请声明来源钻瓜专利网。