[发明专利]基于特征提取和神经网络的水声目标测距方法有效
申请号: | 202010463267.X | 申请日: | 2020-05-27 |
公开(公告)号: | CN111624586B | 公开(公告)日: | 2022-09-23 |
发明(设计)人: | 肖仲喆;石拓;江均均;黄敏;吴迪 | 申请(专利权)人: | 苏州大学 |
主分类号: | G01S11/14 | 分类号: | G01S11/14;G06N3/08 |
代理公司: | 苏州市中南伟业知识产权代理事务所(普通合伙) 32257 | 代理人: | 冯瑞 |
地址: | 215000 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 特征 提取 神经网络 目标 测距 方法 | ||
本发明一种基于特征提取和神经网络的水声目标测距方法,包括:第一步:采集水声目标在不同距离发出的水声信号,并按秒拆分数据,一秒的数据作为一个样本;第二步:对每个样本进行分帧;第三步:对每个样本的每一帧数据分别计算时域波形的过零率、MFCC的第2、5、8个系数、频谱质心、频谱偏度、频谱熵和频谱尖锐度。本发明的有益效果:本发明提出的基于特征提取和神经网络的水声目标测距方法直接对接收到的水声信号数据进行处理,实时性高,反应速度快。
技术领域
本发明涉及水声目标测距领域,具体涉及一种基于特征提取和神经网络的水声目标测距方法。
背景技术
目前各国对海洋的消费、工业及军事地位越来越重视,都在大力地进行相关研究。我国仍处于比较落后的阶段。因此,随着我国军事自动化建设步伐的加快,对水声目标识别的研究亟待推进。
在原始的水声目标识别中,主要是根据观察员的经验和主观判断来确定目标的有无和距离,此法有一定的弊端。后来开始运用声学信号理论、现代谱理论来进行水声目标的识别,识别精度和效率有了一定的提升。但随着当前各种传感器形式的增加、各种信息量的增大、水下环境的噪声干扰的增多,水声目标识别问题又开始变得越来越复杂。因此,依靠传统的方法已不能满足当前的需要,而人工智能方法(如神经网络)对处理那些环境信息复杂、背景知识模糊的识别问题,具有明显的优越性。
传统技术存在以下技术问题:
1、CN110488300A一种水声定位系统及方法:该方法需要待定位目标安装深度传感器,用于发送深度信息,因此,无法实现对无深度传感器的目标的定位;同时利用单阵元换能器测试斜距信息受水下环境的干扰较大,存在较大的测量误差,因此,定位误差较大。
2、CN110208745A一种基于自适应匹配滤波器的水声定位方法:该方法通过两路信号的时间差获得待定位目标的具体位置,需要待定位目标安装固定频段声音信号发射系统,且需要一个FPGA核心控制芯片、四个水听器、四路AD处理器、四路信号放大器和一路以太网传输模块,所需设备种类和数量较多,成本较高。
3、CN110542883A一种用于目标静默的被动水声定位方法:该方法需要在水面布置导航基线节点阵列,需要每个节点同步发射导航信号,无法用于对待定位目标的实时定位;同时该方法主要用于待定位目标对自身的定位,无法用于其他设备或系统对待定位目标的定位。
发明内容
本发明要解决的技术问题是提供一种基于特征提取和神经网络的水声目标测距方法,首先大量采集水声目标在不同距离发出的水声信号并提取特征,再将这些特征以及对应的距离标签输入搭建的神经网络进行训练。在实际的应用中,则只需采集周围的水声信号并提取特征,输入到训练好的神经网络中即可实现对水声目标的测距。该方法响应速度快,实时性高,只需一个水听器和一个上位机即可实现,所需设备少,成本低,且受环境影响较小,测距的平均相对误差低于20%,可靠性高。
为了解决上述技术问题,本发明提供了一种基于特征提取和神经网络的水声目标测距方法,包括:
第一步:采集水声目标在不同距离发出的水声信号,并按秒拆分数据,一秒的数据作为一个样本;
第二步:对每个样本进行分帧;
第三步:对每个样本的每一帧数据分别计算时域波形的过零率、MFCC的第2、5、8个系数、频谱质心、频谱偏度、频谱熵和频谱尖锐度;
第四步:对每个样本中所有帧计算得出的过零率、MFCC第2、5、8个系数、频谱质心、频谱偏度、频谱熵和频谱尖锐度分别计算第一四分位数、第二四分位数、第三四分位数、1%百分位数、99%百分位数、算术平均值、平方平均数和峰值的均值;
第五步:将第四步计算得到的64个值组成64维特征,作为样本的特征;
第六步:根据每个样本所在时刻的水声目标的距离信息,给每个样本打上距离标签;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州大学,未经苏州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010463267.X/2.html,转载请声明来源钻瓜专利网。