[发明专利]一种基于深度学习的海上船舶时序数据的分析方法有效
申请号: | 201910392625.X | 申请日: | 2019-05-13 |
公开(公告)号: | CN110110796B | 公开(公告)日: | 2020-12-18 |
发明(设计)人: | 周连科;王红滨;王念滨;曾庆宇;崔琎 | 申请(专利权)人: | 哈尔滨工程大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 刘冰 |
地址: | 150001 黑龙江*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 一种基于深度学习的海上船舶时序数据的分析方法,它属于时序信息分析技术领域。本发明解决了传统方法对海洋环境下船舶目标时序数据分析结果的准确率低的问题。通过信息融合方式使LSTM模型在迭代中获得更多样化的时序信息,对数据的表征能力更强;根据相邻音频分帧输入特征的相似度对dropout的参数进行调整,达到一种动态反馈的效果,避免过度学习;对音频时序数据的处理和特征提取采用了划分频段分解的思想,先通过二维小波变换进行分解,再通过四组反卷积网络训练卷积核,再按比例抽取卷积核构建新的反卷积神经网络做待测时序数据的特征提取。采用本发明方法对海上船舶的音频时序数据分析结果准确率达到87.8%。本发明可以应用于时序信息分析技术领域。 | ||
搜索关键词: | 一种 基于 深度 学习 海上 船舶 时序 数据 分析 方法 | ||
【主权项】:
1.一种基于深度学习的海上船舶时序数据的分析方法,其特征在于,该方法包括以下步骤:步骤一、将船舶在海上行驶时发出的辐射噪声作为音频时序数据,从音频时序数据的初始时刻开始,每N秒确定一个加速状态;且从音频时序数据的初始时刻开始,将音频时序数据的每N0秒内数据切割为一个音频分帧,全部的音频分帧共同形成声谱图;利用LSTM模型对声谱图中相邻的音频分帧的特征信息进行融合,即将声谱图中的第一个音频分帧与第二个音频分帧进行特征信息融合,将第三个音频分帧与第四个音频分帧进行特征信息融合,以此类推,直至声谱图中全部音频分帧的特征信息融合完成;将第一个音频分帧与第二个音频分帧的特征信息融合结果作为第一个新的时间片的特征矩阵,将第三个音频分帧与第四个音频分帧的特征信息融合结果作为第二个新的时间片的特征矩阵,直至获得全部新的时间片的特征矩阵;步骤二、通过主成分分析方法对每个新的时间片的特征矩阵分别进行对角化,获得每个新的时间片对应的对角化后特征矩阵X1,new,X2,new,X3,new,X4,new,…,XM,new,其中:X1,new、X2,new、X3,new、X4,new和XM,new分别代表第一个、第二个、第三个、第四个和第M个新的时间片对应的对角化后特征矩阵;并根据X1,new和X2,new计算出第一个和第二个新的时间片的余弦相似度,根据X3,new和X4,new计算出第三个和第四个新的时间片的余弦相似度;同理,直至计算出全部新的时间片的余弦相似度;步骤三、根据步骤二计算出的全部新的时间片的余弦相似度,按比例设置dropout参数的值,实现对dropout参数值的动态调整;通过对dropout参数值的动态调整获得改进的LSTM模型;步骤四、对步骤一的声谱图进行二维小波分解获得四个不同频段的图像;步骤五、分别搭建四组结构相同的反卷积神经网络,将步骤四获得的四个不同频段的图像各输入一组反卷积神经网络进行训练,直至各组反卷积神经网络的损失函数值均不再减小时停止训练,获得四组训练好的反卷积神经网络;步骤六、按比例抽取步骤五训练好的四组反卷积神经网络的卷积层中的卷积核组成新的卷积核,将新的卷积核作为反卷积神经网络的卷积核,获得新的反卷积神经网络;步骤七、对于待测的音频时序数据,采用步骤一的方法对待测音频时序数据进行处理,获得声谱图;再对获得的声谱图进行二维小波分解,获得待测音频时序数据对应的四个不同频段的图像;将待测音频时序数据对应的四个不同频段的图像输入新的反卷积神经网络,并将新的反卷积神经网络的输出作为改进的LSTM模型的输入,根据改进的LSTM模型的输出对海上船舶的航态进行预测,实现对海上船舶时序数据的分析。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910392625.X/,转载请声明来源钻瓜专利网。