[发明专利]一种基于双层注意力机制的云平台资源预测方法在审
申请号: | 202110315629.5 | 申请日: | 2021-03-24 |
公开(公告)号: | CN113033780A | 公开(公告)日: | 2021-06-25 |
发明(设计)人: | 王小凤;梁璐;邓胡承;陈思煜;孙超;耿国华;贺小伟 | 申请(专利权)人: | 西北大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06K9/62 |
代理公司: | 西安众和至成知识产权代理事务所(普通合伙) 61249 | 代理人: | 强宏超 |
地址: | 710069 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 双层 注意力 机制 平台 资源 预测 方法 | ||
1.一种基于双层注意力机制的云平台资源预测方法,其特征在于:具体包括以下步骤;
步骤1:对云平台时间序列数据进行预处理操作;
步骤2:搭建基于双层注意力机制的编码器解码器预测网络;搭建的步骤为;
步骤21:搭建编解码器学习结构,对于时间序列预测,给定输入序列X=(x1,x2,…,xT)∈RT,其中xi表示在时刻i的负载数据,在此输入序列的情况下,编码器用于从xT到ht的映射学习公式如下:
ht=f1(ht-1,xt)
其中ht-1∈Rm是编码器在时间t的隐藏状态,m是隐藏状态的大小,f1是非线性激活函数,xt表示在时刻t的输入序列;
步骤22:在编码器输入部分加入特征注意机制自适应地捕获目标序列与每个局部特征之间的动态相关性,其公式表示如下:
其中表示局部特征的注意权重,ht-1表示编码器在时刻t的隐藏状态,st-1表示编码器的历史状态,xi,k表示输入序列i时刻的第k个特征,VlT、Wl、Ul表示要学习的参数,表示归一化后的特征注意力权重,为使用softmax函数进行归一化计算公式;
通过参考目标序列和输入特征,自适应的选择相关特征,该值在语义上代表了每个影响特征的重要性;
获得注意力权重后,在该时刻的特征注意力输出向量的公式表示如下:
其中表示在时刻t输入序列的第i个特征,表示在时刻t输入序列的第i个特征所占权重,xt为特征注意机制处理后的输入序列;
步骤23:在解码器中加入时间注意机制来跨所有时间步长自适应地选择相关的编码器隐藏状态;具体地,在时间t,基于先前的解码器隐藏状态dt-1∈R将LSTM单元st-1∈Rp的单元状态覆盖,计算出每个编码器隐藏状态的关注权重;然后采用softmax函数来确保所有注意力权重之和为1,计算公式如下:
其中[dt-1;st-1]∈R2p是LSTM单元的先前隐藏状态和记忆单元状态的串联,Wd、Ud是要学习的参数,hi表示第i个编码器的隐藏状态,表示第i个编码器隐藏状态对于目标序列的权重,表示归一化后的时间注意力权重,为使用softmax函数进行归一化计算公式,该值在语义上代表了不同时间段时间序列的重要性;
注意机制会计算上下文向量所有编码器隐藏状态{h1,h2,…,hT}的加权和作为解码器的输入,计算公式如下所示:
其中hi表示第i个编码器的隐藏状态,表示归一化后的时间注意力权重,ct为时间注意机制处理后的序列;
步骤24:在输出部分加入AR模型,AR分量的预测表示为:代表T时刻AR模型得到的预测值;
步骤3:将步骤1中预处理后的数据集分为训练集和测试集,分批导入步骤2中搭建的基于双层注意力机制编码器解码器预测网络中;通过训练集进入预测网络进行有监督迭代训练;通过测试集进入预测网络进行检验预测评价指标性能。
2.根据权利要求1所述的一种基于双层注意力机制的云平台资源预测方法,其特征在于:步骤1中所述的数据预处理包括去噪、缺失数据填充、合并化以及归一化处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北大学,未经西北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110315629.5/1.html,转载请声明来源钻瓜专利网。