[发明专利]基于双向自适应语义融合的水下目标识别方法有效
申请号: | 201810107755.X | 申请日: | 2018-02-02 |
公开(公告)号: | CN108447074B | 公开(公告)日: | 2020-04-03 |
发明(设计)人: | 李学龙;卢孝强;孙昊 | 申请(专利权)人: | 中国科学院西安光学精密机械研究所 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06K9/62 |
代理公司: | 西安智邦专利商标代理有限公司 61211 | 代理人: | 杨引雪 |
地址: | 710119 陕西省西*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 双向 自适应 语义 融合 水下 目标 识别 方法 | ||
本发明涉及一种基于双向自适应语义融合的水下目标识别方法,主要解决现有水下目标识别方法依赖于声纳系统,易受复杂水下环境干扰,难以获得较好水下目标识别精度的问题。方法包括以下步骤:1)构建深层的卷积神经网络,学习水下图像的语义特征;2)构建双向自适应语义特征融合模块;3)构建回归模型;4)预测水下图像中目标位置及其类别。本发明建立基于双向自适应语义融合的卷积神经网络,得到对不同尺度目标均具有判别性的混合语义特征,提高水下目标识别准确率,可用于水下目标识别、水下军事侦察等领域。
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于双向自适应语义融合的水下目标识别方法。
背景技术
水下成像是人类认识海洋、开发海洋和保护海洋的重要手段,但由于水体的吸收作用和散射作用会损耗水下成像系统光能量,并改变光能量在水下的空间分布,使得水下图像呈现模糊、虚化等问题,给水下图像的目标检测、识别任务带来了很大的困难。
现有文献中水下目标识别大多是基于声纳系统的水下目标识别方法。声纳系统利用声波反射原理,不同目标具有不同的声波反射能力,可根据接收回波信号进行水下目标识别。但声纳反射易受水温温差、礁石、鱼群等影响,导致误识。Wang等人在文献“N.Wang,B.Zheng,H.Zheng,and Z.Yu,“Feeble object detection of underwater imagesthrough LSR with delay loop,”Optics Express,vol.25,no.19,pp.22490-22498,2017.”中通过利用噪音和非线性系统的相互作用增强微弱信号,提高水下微弱目标的检测精度。Huang等人在文献“B.Huang,T.Liu,H.Hu,J.Han,and Z.Yu,“Underwater imagerecovery considering polarization effects of objects,”Optics Express,vol.24,no.9,pp.9826-9838,2016.”中通过目标信号的偏振差分图像有效地增强水下图像的质量,提高水下目标检测精度。然而,水下信号传播易受到水体吸收和散射作用,使得系统接收声波质量较差,致使难以有效利用声纳系统进行水下目标识别。
综上所述,现有的水下目标识别方法依赖于声纳系统,易受复杂水下环境干扰,难以获得较好的水下目标识别精度。
发明内容
本发明的目的是解决现有水下目标识别方法依赖于声纳系统,易受复杂水下环境干扰,难以获得较好水下目标识别精度的问题,提出一种基于双向自适应语义融合的水下目标识别方法,主要针对水下图像质量较差、水下目标尺度多变的问题,提高水下目标检测识别精度。
本发明解决上述问题的技术方案是,
一种基于双向自适应语义融合的水下目标识别方法,包括以下步骤:
1)构建深层的卷积神经网络,学习水下图像的语义特征;
利用卷积模块搭建卷积神经网络框架,并使用带动量的随机梯度下降法优化卷积神经网络,让卷积神经网络学习出水下图像的语义特征;
2)构建双向自适应语义特征融合模块;
将卷积神经网络不同卷积层的语义特征进行双向地自适应融合,得到对不同尺度目标均具有判别性的混合语义特征;
3)构建回归模型;
对得到的混合语义特征构建回归模型,使用带动量的随机梯度下降法优化回归模型;
4)预测水下图像中目标位置及其类别;
输入水下图像至训练好的卷积神经网络中,得到水下图像所包含的目标位置信息以及类别信息。
进一步地,步骤1)具体为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院西安光学精密机械研究所,未经中国科学院西安光学精密机械研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810107755.X/2.html,转载请声明来源钻瓜专利网。