[发明专利]一种基于Transformer序列到序列模型的径流预测方法在审
申请号: | 202210558117.6 | 申请日: | 2022-05-21 |
公开(公告)号: | CN115146700A | 公开(公告)日: | 2022-10-04 |
发明(设计)人: | 尹翰林;郭子龙;张秀伟;张艳宁 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G01C13/00;G01W1/14 |
代理公司: | 西安凯多思知识产权代理事务所(普通合伙) 61290 | 代理人: | 高凌君 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 transformer 序列 模型 径流 预测 方法 | ||
1.一种基于Transformer序列到序列模型的径流预测方法,其特征在于,包括如下步骤:
步骤1:准备数据集并进行预处理;
收集研究流域内的气象数据以及水文站点的径流数据,构成原始数据集;然后对原始数据集进行预处理,预处理过程包括空值处理、数据选择、标准化和数据序列化;
步骤2:将预处理过的数据集划分出训练集、验证集、测试集三个互斥的集合;
步骤3:构建Transformer序列到序列模型;
Transformer序列到序列模型的架构包括:输入变换层、位置编码层、编码器、解码器、输出变换层和输出选择操作,具体步骤如下:
步骤3-1:输入变换层对输入数据的维度进行变换,统一数据维度;
步骤3-2:位置编码层向输入数据注入位置信息;
步骤3-3:编码器由多个编码器层前后串接而成,每个编码器层包含两个子层:多头自注意力和全连接层,每个子层之后都需要接入残差连接和层归一化;
编码器的输入序列为:
(x1,x2,…,xpast_len+pred_len)
其中past_len表示已知的序列长度,pred_len表示预测的序列长度;
步骤3-4:解码器由多个解码器层前后串接而成,每个解码器层包含三个子层:多头自注意力、多头交叉注意力和全连接层,每个子层之后都接入残差连接和层归一化;
解码器的输入序列为:
(y1,y2,…,ypast_len,01,02,…,0pred_len)
其中past_len表示已知的序列长度,pred_len表示预测的序列长度,01,02,…表示使用0进行填充,一共有pred_len个位置需要填充0;
步骤3-5:多头自注意力和多头交叉注意力;
计算:
Q=WQI1
K=WKI2
V=WVI3
其中,WQ、WK、WV是可学习参数矩阵,softmax表示进行Softmax操作,当输入I2和I3相同并且与输入I1不同时,Attn(Q,K,V)称为交叉注意力;当三个输入I1,I2,I3都相同时,Attn(Q,K,V)称为自注意力;Q表示I1经过参数为WQ的线性变换得到的结果,K表示I2经过参数为WK的线性变换后得到的结果,V表示I3经过参数为WV的线性变换后得到的结果;
多头注意力计算公式如下:
headi=Attn(QWiQ,KWiK,VWiV)
MultiHeadAttn(Q,K,V)=Concat(head1,…,headh)WO
其中,WiQ,WiK,WiV,WO是可学习参数矩阵,h表示头数,i的取值范围从1到h;head1,…,headh表示头;
当输入I2和I3相同并且与I1不同时,MultiHeadAttn(Q,K,V)称为多头交叉注意力;当三个输入I1,I2,I3都相同时,MultiHeadAttn(Q,K,V)称为多头自注意力;
步骤3-6:残差连接计算公式如下:
o=x+Sublayer(x)
其中,x表示子层的输入,Sublayer(x)表示子层的输出,o表示最终输出;
步骤3-7:层归一化,对最后的输出维度进行标准化;
步骤3-8:输出变换层对解码器的输出维度进行变换,使输出符合最终的输出维度;
将解码器的输出序列(o1,o2,…,opast_len+pred_len)放入全连接层,得到输出变换层的输出序列
步骤3-9:输出选择操作是对输出变换层的输出序列进行选择的过程,将该序列进行切割,被舍弃掉,只保留的部分作为最终的输出;
步骤4:将训练集的气象数据输入输入变换层得到变换后的数据,再通过位置编码层后,送入编码器处理得到编码器输出;
将训练集的径流数据经过输入变换层得到变换后的数据,再通过位置编码层后,与编码器输出一起送入解码器处理得到解码器输出;然后,输出变换层对解码器输出进行维度变换,使其符合最终输出的维度;最后,通过输出选择操作对输出变换层的输出序列进行选择;
步骤5:定义损失函数和优化器,并训练模型;
训练时的损失函数采取平滑NSE损失函数,其计算公式如下:
其中,N是小批量样本数量,Dn是第n个样本的预测天数,是第d天的预测值,yd是第d天的径流真实值,Sb是该样本对应站点所有数据径流真实值的标准差,∈表示常数;
模型进行多次迭代训练,在每次迭代完成后,使用测试集数据评估模型的性能,并且使用纳什效率系数NSE作为指标,NSE计算公式如下:
其中,是第n个样本径流真实值的均值;
步骤6:测试模型;
使用测试集对训练完成后的模型进行测试,得到预测结果,并根据真实数据对预测结果进行评估。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210558117.6/1.html,转载请声明来源钻瓜专利网。
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法