[发明专利]一种用于雷达回波外推的深度时空预测神经网络训练方法有效
申请号: | 201810599921.2 | 申请日: | 2018-06-12 |
公开(公告)号: | CN108427989B | 公开(公告)日: | 2019-10-11 |
发明(设计)人: | 李骞;敬金瑞;马强;马烁 | 申请(专利权)人: | 中国人民解放军国防科技大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 江苏圣典律师事务所 32237 | 代理人: | 胡建华;于瀚文 |
地址: | 410005 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种用于雷达回波外推的深度时空预测神经网络训练方法,包括:步骤1,模型构造:构造初始化网络、编码网络和预测网络;步骤2,设置训练超参数;步骤3,输入训练序列样本;步骤4,初始化网络将输入序列前2个数据作为输入,前向传播输出编码网络所需的隐藏态和初始记忆;编码网络将输入序列的后续数据和初始化网络的输出作为输入,前向传播输出编码输入得到的隐藏态和记忆;预测网络将编码网络的输出作为输入,最终解码输出预测序列;步骤5,对步骤4前向传播得到的预测序列,根据损失函数计算所有网络参数的梯度,最后根据梯度和学习率更新所有网络参数;步骤6,迭代训练深度时空预测神经网络。 | ||
搜索关键词: | 编码网络 前向传播 时空预测 初始化 网络 神经网络训练 雷达回波 输出编码 输入序列 网络参数 预测 输入训练序列 解码 迭代训练 后续数据 模型构造 神经网络 输出预测 损失函数 输出 样本 更新 学习 | ||
【主权项】:
1.一种用于雷达回波外推的深度时空预测神经网络训练方法,其特征在于,包括以下步骤:步骤1,模型构造:首先构造用于向编码网络输出隐藏态与初始记忆的初始化网络initialize_network,再构造用于编码输入的编码网络encode_network,最后构造用于解码输出预测序列的预测网络forecast_network;步骤2,设置训练超参数;步骤3,输入训练序列样本;步骤4,前向传播:对步骤3输入的每个序列样本,初始化网络将输入序列前2个数据作为输入,前向传播输出编码网络所需的隐藏态和初始记忆;编码网络将输入序列的后续数据和初始化网络的输出作为输入,前向传播输出编码输入得到的隐藏态和记忆;预测网络将编码网络的输出作为输入,最终解码输出预测序列;步骤5,反向传播:对步骤4前向传播得到的预测序列,计算它与步骤3输入的序列样本中对照序列的损失函数,根据损失函数计算所有网络参数的梯度,最后根据梯度和学习率更新所有网络参数;步骤6,迭代训练深度时空预测神经网络;步骤1包括以下步骤:步骤1‑1,构造初始网络initialize_network:初始网络由3个网络层构成,第1层网络ini_layer1将输入序列的前两个数据x1、x2作为输入,输出第1层隐藏态
第1层时序轨迹初始记忆
和中间记忆S0、S1,网络构造公式如下:![]()
![]()
![]()
![]()
其中,*表示卷积,tanh为激活函数双曲正切
卷积核
尺寸设为5×5,数量设为1×128,初始值设为
random表示以均匀分布方式随机取值;卷积核
尺寸设为5×5,数量设为128×128,初始值设为
卷积核
尺寸设为5×5,数量设为1×32,初始值设为
卷积核
尺寸设为5×5,数量设为128×32,初始值设为
偏置
特征图数量设为128,初始值设为0;偏置
特征图数量设为32,初始值设为0;第2层网络ini_layer2将第1层隐藏态输出
作为输入,输出第2层隐藏态
第2层时序轨迹初始记忆
和中间记忆S2,网络构造公式如下:![]()
![]()
![]()
其中,卷积核
尺寸设为5×5,数量设为128×64,初始值设为
卷积核
尺寸设为5×5,数量设为64×64,初始值设为
卷积核
尺寸设为5×5,数量设为64×32,初始值设为
偏置
特征图数量设为64,初始值设为0;偏置
特征图数量设为32,初始值设为0;第3层网络ini_layer3将第2层隐藏态
和第1、2层中间记忆S0、S1、S2作为输入,输出第3层隐藏态
第3层时序轨迹初始记忆
中间记忆S3和空间形变初始记忆
网络构造公式如下:![]()
![]()
![]()
![]()
其中,卷积核
尺寸设为7×7,数量设为64×32,初始值设为
卷积核![]()
尺寸设为7×7,数量设为32×32,初始值设为
偏置![]()
bhs‑i特征图数量设为32,初始值设为0;步骤1‑2,构造编码网络encode_network:编码网络采用编码‑空间形变‑时序轨迹长短期记忆网络e‑SVTT‑LSTM作为基本构造单元,e‑SVTT‑LSTM在时序上串联,并堆叠3个网络层构成编码网络;构造编码网络,首先构造e‑SVTT‑LSTM的空间形变记忆单元,再构造结构生成子网络和e‑SVTT‑LSTM的时序轨迹记忆单元,最后构造e‑SVTT‑LSTM的输出单元;步骤1‑3,构造预测网络forecast_network:预测网络采用预测‑空间形变‑时序轨迹长短期记忆网络f‑SVTT‑LSTM作为基本构造单元,f‑SVTT‑LSTM在时序上串联,并堆叠3个网络层构成预测网络;构造预测网络,首先调整隐藏态和f‑SVTT‑LSTM的空间形变记忆在网络层间流动方向,并改变空间形变记忆单元中卷积操作为反卷积操作,再构造结构生成子网络和f‑SVTT‑LSTM的时序轨迹记忆单元,最后构造f‑SVTT‑LSTM的输出单元和预测输出单元;步骤1‑2包括以下步骤:步骤1‑2‑1,构造空间形变记忆单元:t时刻第l层编码网络的空间形变记忆
从编码网络的l‑1层垂直传递到l层,在编码网络顶层时则传递到下一时刻的最底层;在传递过程中,空间形变记忆在t时刻第l层编码网络的输入门
和遗忘门ftl的控制下实现信息的更新;构造空间形变记忆单元,首先构造控制信息输入进记忆的输入门,再构造控制信息被记忆所遗忘的遗忘门,最后构造空间形变记忆,构造公式如下:![]()
![]()
其中,l∈[1,3]表示网络层数,t∈[3,10]表示时刻,σ表示sigmoid函数![]()
表示Hadamard矩阵点积;对于
当l=1时,有
对于当前时刻输入
当l=1时,有
否则有
其中xt为输入序列t时刻数据,
为t时刻第l‑1层的隐藏态;对卷积核
当l=1时,尺寸设为5×5,数量设为1×128,初始值设为
当l=2时,尺寸设为5×5,数量设为128×64,初始值设为
当l=3时,尺寸设为7×7,数量设为64×32,初始值设为
对卷积核
当l=1时,尺寸设为5×5,数量设为32×128,初始值设为
当l=2时,尺寸设为5×5,数量设为128×64,初始值设为
当l=3时,尺寸设为7×7,数量为64×32,初始值设为
对偏置![]()
当l=1时,特征图数量设为128,初始值设为0,当l=2时,特征图数量设为64,初始值设为0,当l=3时,特征图数量设为32,初始值设为0;步骤1‑2‑2,构造结构生成子网络:构造结构生成子网络,即构造包含1个隐藏层Ytl的卷积神经网络,网络的输入为当前时刻输入
和前一时刻隐藏态
输出为流场矢量
和
网络构造公式如下:![]()
![]()
其中,
[]表示在特征维上串联叠加,C1为输入
的特征图数量,C2为输入
的特征图数量;则卷积核
尺寸设为5×5,数量设为(C1+C2)×32,初始值设为
卷积核
尺寸设为5×5,数量设为32×N,初始值设为
其中N表示动态连接总数;偏置
特征图数量设为32,初始值设为0;偏置
特征图数量设为N,初始值设为0;步骤1‑2‑3,构造时序轨迹记忆单元:时序轨迹记忆Vtl在第l层编码网络中,从t‑1时刻水平传递到当前时刻t;在传递过程中,时序轨迹记忆根据结构生成子网络动态调整连接拓扑,同时在输入门
和遗忘门
的控制下实现信息的更新;构造时序轨迹记忆单元,首先构造控制信息输入进记忆的输入门,再构造控制信息被记忆所遗忘的遗忘门,最后构造时序轨迹记忆,构造公式如下:![]()
![]()
其中,
为扭曲函数,令流场
则:
其中,
为流场矢量
的第n个特征,
表示分辨率为240×240;流场M∈RC×240×240,其特征图数量C和第l层隐藏态
相同;Mc,i,j表示M第c个特征图坐标为(i,j)处的值,Hc,m,n表示
第c个特征图坐标为(m,n)处的值,vi,j、ui,j分别表示
坐标为(i,j)处的值、
坐标为(i,j)处的值;对卷积核
当l=1时,尺寸设为5×5,数量设为1×128,初始值设为
当l=2时,尺寸设为5×5,数量设为128×64,初始值设为
当l=3时,尺寸设为7×7,数量设为64×32,初始值设为
对卷积核
其中n∈[1,N],当l=1时,尺寸设为1×1,数量设为128×128,初始值设为
当l=2时,尺寸设为1×1,数量设为64×64,初始值设为
当l=3时,尺寸设为1×1,数量设为32×32,初始值设为
对卷积核
当l=1时,尺寸设为5×5,数量设为128×128,初始值设为
当l=2时,尺寸为5×5,数量设为64×64,初始值设为
当l=3时,尺寸设为7×7,数量设为32×32,初始值设为
对偏置
当l=1时,特征图数量设为128,初始值设为0,当l=2时,特征图数量设为64,初始值设为0,当l=3时,特征图数量设为32,初始值设为0;步骤1‑2‑4,构造e‑SVTT‑LSTM输出单元:e‑SVTT‑LSTM输出单元在输出门
的控制下,融合空间形变记忆和时序轨迹记忆输出隐藏态
首先构造控制信息输出的输出门,再构造隐藏态输出,构造公式如下:![]()
其中,对卷积核
当l=1时,尺寸设为5×5,数量设为1×128,初始值设为
当l=2时,尺寸设为5×5,数量设为128×64,初始值设为
当l=3时,尺寸设为7×7,数量设为64×32,初始值设为
对卷积核
当l=1时,尺寸设为1×1,数量设为128×128,初始值设为
当l=2时,尺寸设为1×1,数量设为64×64,初始值设为
当l=3时,尺寸设为1×1,数量设为32×32,初始值设为
对卷积核
当l=1时,尺寸设为5×5,数量设为128×128,初始值设为
当l=2时,尺寸设为5×5,数量设为64×64,初始值设为
当l=3时,尺寸设为7×7,数量设为32×32,初始值设为
对卷积核
当l=1时,尺寸设为5×5,数量设为256×128,初始值设为
当l=2时,尺寸设为5×5,数量设为128×64,初始值设为
当l=3时,尺寸设为7×7,数量设为64×32,初始值设为
对偏置
当l=1时,特征图数量设为128,初始值设为0,当l=2时,特征图数量设为64,初始值设为0,当l=3时,特征图数量设为32,初始值设为0;步骤1‑3包括以下步骤:步骤1‑3‑1,构造空间形变记忆单元:t时刻第l层预测网络的空间形变记忆
从预测网络的l+1层垂直传递到l层,在预测网络最底层时则传递到下一时刻的顶层,在传递过程中,空间形变记忆在t时刻第l层预测网络的输入门
和遗忘门ftl的控制下实现信息的更新;构造空间形变记忆单元,首先构造控制信息输入进记忆的输入门,再构造控制信息被记忆所遗忘的遗忘门,最后构造空间形变记忆,构造公式如下:![]()
![]()
其中,l∈[1,3]表示网络层数,t∈[11,20]表示时刻;
表示反卷积;对于
当l=3且t≠11时,有
当l=3且t=11时,有
对于当前时刻输入![]()
对卷积核
当l=1时,尺寸设为5×5,数量设为64×128,初始值设为
当l=2时,尺寸设为7×7,数量设为32×64,初始值设为
对卷积核
当l=1时,尺寸设为5×5,数量设为64×128,初始值设为
当l=2时,尺寸设为7×7,数量设为32×64,初始值设为
当l=3且t≠11时,尺寸设为5×5,数量设为128×32,初始值设为
当l=3且t=11时,尺寸设为5×5,数量设为32×32,初始值设为
对偏置
当l=1时,特征图数量设为128,初始值设为0,当l=2时,特征图数量设为64,初始值设为0,当l=3时,特征图数量设为32,初始值设为0;步骤1‑3‑2,构造结构生成子网络:构造结构生成子网络,即构造包含1个隐藏层Ytl的卷积神经网络,网络的输入为当前时刻输入
和前一时刻隐藏态
输出为流场矢量
和
网络构造公式如下:![]()
![]()
其中,
C1为输入
的特征图数量,C2为输入
的特征图数量,当l=3时,无输入
则记C1为0;则卷积核
尺寸设为5×5,数量设为(C1+C2)×32,初始值设为
卷积核![]()
尺寸设为5×5,数量设为32×N,初始值设为
其中N表示动态连接总数;偏置
特征图数量设为32,初始值设为0;偏置
特征图数量设为N,初始值设为0;步骤1‑3‑3,构造时序轨迹记忆单元:时序轨迹记忆Vtl在第l层预测网络中,从t‑1时刻水平传递到当前时刻t;在传递过程中,时序轨迹记忆根据结构生成子网络动态调整连接拓扑,同时在输入门
和遗忘
的控制下实现信息的更新;构造时序轨迹记忆单元,首先构造控制信息输入进记忆的输入门,再构造控制信息被记忆所遗忘的遗忘门,最后构造时序轨迹记忆,构造公式如下:![]()
![]()
其中,对卷积核
当l=1时,尺寸设为5×5,数量设为64×128,初始值设为
当l=2时,尺寸设为7×7,数量设为32×64,初始值设为
对卷积核
其中n∈[1,N],当l=1时,尺寸设为1×1,数量设为128×128,初始值设为
当l=2时,尺寸设为1×1,数量设为64×64,初始值设为
当l=3时,尺寸设为1×1,数量设为32×32,初始值设为
对卷积核
当l=1时,尺寸设为5×5,数量设为128×128,初始值设为
当l=2时,尺寸设为5×5,数量设为64×64,初始值设为
当l=3时,尺寸设为7×7,数量设为32×32,初始值设为
对偏置![]()
当l=1时,特征图数量设为128,初始值设为0,当l=2时,特征图数量设为64,初始值设为0,当l=3时,特征图数量设为32,初始值设为0;步骤1‑3‑4,构造f‑SVTT‑LSTM输出单元:f‑SVTT‑LSTM输出单元在输出门
的控制下,融合空间形变记忆和时序轨迹记忆输出隐藏态
构造输出单元,首先构造控制信息输出的输出门,再构造隐藏态输出,构造公式如下:![]()
其中,对卷积核
当l=1时,尺寸设为5×5,数量设为64×128,初始值设为
当l=2时,尺寸设为7×7,数量设为32×64,初始值设为
对卷积核
当l=1时,尺寸设为1×1,数量设为128×128,初始值设为
当l=2时,尺寸设为1×1,数量设为64×64,初始值设为
当l=3时,尺寸设为1×1,数量设为32×32,初始值设为
对卷积核
当l=1时,尺寸设为5×5,数量设为128×128,初始值设为
当l=2时,尺寸设为5×5,数量设为64×64,初始值设为
当l=3时,尺寸设为7×7,数量设为32×32,初始值设为
对卷积核
当l=1时,尺寸设为5×5,数量设为256×128,初始值设为
当l=2时,尺寸设为5×5,数量设为128×64,初始值设为
当l=3时,尺寸设为7×7,数量设为64×32,初始值设为
对偏置
当l=1时,特征图数量设为128,初始值设为0,当l=2时,特征图数量设为64,初始值设为0,当l=3时,特征图数量设为32,初始值设为0;步骤1‑3‑5,构造预测输出单元:预测输出单元将预测网络第1层输出的隐藏态转化为预测输出
构造公式如下:
其中,卷积核Whx‑f尺寸设为5×5,数量设为128×1,初始值设为
偏置bhx‑f特征图数量设为1,初始值设为0;步骤2包括:将网络初始学习率λ0设为0.0001,学习率衰减系数α设为0.95,衰减速度β设为100,当前网络学习率λ根据训练步数train_step确定,公式如下:
其中,训练步数train_step初始设为1,每进行一次网络训练训练步数将加1;训练时每次输入网络的序列样本数量batch_size设为10;每一轮迭代的最大批训练次数设为max_batch_step,初始批训练次数batch_step设为1;训练的最大迭代次数为max_iteration_step=100,初始迭代次数iteration_step=1;其中最大批训练次数由如下公式确定:
其中,count_of_sequence表示序列总数;步骤3包括:通过如下方式获取训练序列样本集:对给定的多普勒天气雷达基数据,通过数据插值得到等高平面位置显示CAPPI数据,将CAPPI数据转换为归一化灰度数据,基于归一化灰度数据集划分得到训练序列样本集,具体包括如下步骤:步骤A‑1,数据插值:基于反距离加权法进行数据插值,首先通过坐标变换将多普勒天气雷达基数据的空间极坐标转化为空间直角坐标,并划分插值网格,再遍历所有空间直角坐标点,计算其对影响范围内所有插值网格点的权重和贡献值,最后遍历所有网格点,计算插值后网格点数据,得到CAPPI数据;步骤A‑2,数据转换:对步骤A‑1数据插值得到的CAPPI数据,通过分辨率调整转化为分辨率240×240的数据,再通过数据映射和归一化将反射率数据转化为归一化灰度数据;步骤A‑3,样本集划分:对步骤A‑2数据转换得到的归一化灰度数据集按时间顺序排列,将数据分段划分为序列并汇总得到序列样本总集,再划分得到训练序列样本集;步骤A‑1所述数据插值包括以下步骤:步骤A‑1‑1,坐标变换:通过坐标变换将多普勒天气雷达基数据的空间极坐标数据转化为空间直角坐标数据;多普勒天气雷达基数据根据空间极坐标确定空间位置,表示为(r,θ,φ),其中r表示坐标点到原点距离,θ表示仰角,φ表示方位角,将其变换为空间直角坐标(x,y,z),其中x表示水平橫坐标,y表示水平纵坐标,z表示垂直高度,变换公式如下:![]()
![]()
其中,
R表示地球半径;步骤A‑1‑2,插值网格划分:设定插值网格橫、纵坐标值域为[‑480,480],网格分辨率为1,划分出分辨率为960×960的插值网格;步骤A‑1‑3,权重和贡献值计算:遍历步骤A‑1‑1坐标变换后得到的每一空间直角坐标点,计算其对所有影响插值网格点的权重和贡献值,并存储于对应网格点的权重矩阵weight_matrix和贡献值矩阵contribution_matrix中;其中,空间直角坐标点影响的插值网格点集表示为:
其中,(x,y,z)表示空间直角坐标点坐标,(x′,y′)表示插值网格点坐标,height表示CAPPI高度,affect_radius表示影响半径;基于反距离加权进行数据插值,则坐标点对网格点影响权重w随两者距离增加指数级衰减,贡献值c则等于权重和坐标点数据值乘积,计算公式如下:w=d‑2c=w×reflectivity其中,d表示空间直角坐标点和网格点间的距离,reflectivity表示空间直角坐标点的反射率数据值;步骤A‑1‑4,插值数据计算:对步骤A‑1‑2插值网格划分得到的每一插值网格点,CAPPI数据cappi_data等于坐标点数据值的加权平均,通过对其贡献值矩阵contribution_matrix中所有贡献值c求和,除以权重矩阵weight_matrix中所有权重w的和来计算得到,计算公式如下:
步骤A‑2所述数据转换包括以下步骤:步骤A‑2‑1,分辨率调整:对步骤A‑1数据插值得到的CAPPI数据,通过裁剪保留中间区域分辨率为480×480部分数据,再通过数据压缩将裁剪后数据分辨率压缩至240×240,将分辨率调整后的反射率CAPPI数据记为adjustment_data;步骤A‑2‑2,数据映射和归一化:对步骤A‑2‑1分辨率调整后得到的反射率数据adjustment_data,将其映射为值域[0,255]的灰度pixel数据,再通过归一化处理得到归一化灰度数据normalization_pixel,数据映射公式如下:
其中,
表示向下取整;数据归一化公式为:
最终得到的归一化灰度数据特征数为1,分辨率为240×240;步骤A‑3所述样本集划分包括以下步骤:步骤A‑3‑1,序列划分:将步骤1‑2数据转换得到的归一化灰度数据normalization_pixel汇总得到归一化灰度数据集,再将其中数据分段划分为序列;首先将数据按时间顺序排列,随后将每20个数据划分为一个序列sequence,其中,前10个数据作为输入序列input,后10个数据作为对照序列contrast,且在划分时相邻序列之间有10个重叠数据,即前一序列的对照序列将作为后一序列的输入序列,序列表示为:sequence={input,contrast}其中,input={x1,x2,...,x10},contrast={x11,x12,...,x20},x1,x2,...,x10表示输入序列input中第1到第10个数据,x11,x12,...,x20表示对照序列contrast中第1到第10个数据;序列总数count_of_sequence则由如下公式确定:
其中,N表示归一化灰度数据集数据总数;步骤A‑3‑2,序列集划分:对步骤A‑3‑1序列划分得到的所有序列汇总为序列样本总集total_sequence_set,按照比例
将序列样本总集中所有序列随机划分出训练序列样本集train_sequence_set;采用批训练的形式,从训练序列样本集中读取batch_size个序列样本输入网络中进行训练,每个序列样本为sequence={input,contrast},共20个数据,其中input={x1,x2,...,x10}作为输入序列,x1,x2,...,x10是输入序列中第1到第10个数据,contrast={x11,x12,...x20}作为对照序列,x11,x12,...,x20是输入序列中第1到第10个数据。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810599921.2/,转载请声明来源钻瓜专利网。
- 上一篇:一种消化道解剖位置识别装置
- 下一篇:神经网络计算系统和方法