[发明专利]一种基于深度学习的海上船舶时序数据的分析方法有效
申请号: | 201910392625.X | 申请日: | 2019-05-13 |
公开(公告)号: | CN110110796B | 公开(公告)日: | 2020-12-18 |
发明(设计)人: | 周连科;王红滨;王念滨;曾庆宇;崔琎 | 申请(专利权)人: | 哈尔滨工程大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 刘冰 |
地址: | 150001 黑龙江*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 海上 船舶 时序 数据 分析 方法 | ||
1.一种基于深度学习的海上船舶时序数据的分析方法,其特征在于,该方法包括以下步骤:
步骤一、将船舶在海上行驶时发出的辐射噪声作为音频时序数据,从音频时序数据的初始时刻开始,每N秒确定一个加速状态;
且从音频时序数据的初始时刻开始,将音频时序数据的每N0秒内数据切割为一个音频分帧,全部的音频分帧共同形成声谱图;
利用LSTM模型对声谱图中相邻的音频分帧的特征信息进行融合,即将声谱图中的第一个音频分帧与第二个音频分帧进行特征信息融合,将第三个音频分帧与第四个音频分帧进行特征信息融合,以此类推,直至声谱图中全部音频分帧的特征信息融合完成;
将第一个音频分帧与第二个音频分帧的特征信息融合结果作为第一个新的时间片的特征矩阵,将第三个音频分帧与第四个音频分帧的特征信息融合结果作为第二个新的时间片的特征矩阵,直至获得全部新的时间片的特征矩阵;
步骤二、通过主成分分析方法对每个新的时间片的特征矩阵分别进行对角化,获得每个新的时间片对应的对角化后特征矩阵X1,new,X2,new,X3,new,X4,new,…,XM,new,其中:X1,new、X2,new、X3,new、X4,new和XM,new分别代表第一个、第二个、第三个、第四个和第M个新的时间片对应的对角化后特征矩阵;并根据X1,new和X2,new计算出第一个和第二个新的时间片的余弦相似度,根据X3,new和X4,new计算出第三个和第四个新的时间片的余弦相似度;
同理,直至计算出全部新的时间片的余弦相似度;
步骤三、根据步骤二计算出的全部新的时间片的余弦相似度,按比例设置dropout参数的值,实现对dropout参数值的动态调整;通过对dropout参数值的动态调整获得改进的LSTM模型;
步骤四、对步骤一的声谱图进行二维小波分解获得四个不同频段的图像;
所述二维小波分解具体采用的是mallat算法,四个不同频段的图像的划分是利用尺度函数和小波函数来实现的;
步骤五、分别搭建四组结构相同的反卷积神经网络,将步骤四获得的四个不同频段的图像各输入一组反卷积神经网络进行训练,直至各组反卷积神经网络的损失函数值均不再减小时停止训练,获得四组训练好的反卷积神经网络;
所述步骤五的具体过程为:
分别搭建四组结构相同的反卷积神经网络,每组反卷积神经网络均包括:卷积层、池化层、反池化层、卷积层、池化层、第一全连接层、第二全连接层和输出层;
将步骤四获得的四个不同频段的图像各输入一组反卷积神经网络进行训练,每组反卷积神经网络的输出均为输入的特征重整矩阵;
对于任意一组反卷积神经网络,利用该组反卷积神经网络的输入和得到的特征重整矩阵来构造该组反卷积神经网络的损失函数;同理,构造出其他组反卷积神经网络各自对应的损失函数;
经过不断的迭代训练过程,直至各组反卷积神经网络的损失函数值均不再减小时停止训练,获得四组训练好的反卷积神经网络;
步骤六、按比例抽取步骤五训练好的四组反卷积神经网络的卷积层中的卷积核组成新的卷积核,将新的卷积核作为反卷积神经网络的卷积核,获得新的反卷积神经网络;
步骤七、对于待测的音频时序数据,采用步骤一的方法对待测音频时序数据进行处理,获得声谱图;
再对获得的声谱图进行二维小波分解,获得待测音频时序数据对应的四个不同频段的图像;
将待测音频时序数据对应的四个不同频段的图像输入新的反卷积神经网络,并将新的反卷积神经网络的输出作为改进的LSTM模型的输入,根据改进的LSTM模型的输出对海上船舶的航态进行预测,实现对海上船舶时序数据的分析。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910392625.X/1.html,转载请声明来源钻瓜专利网。