[发明专利]服务器内存容量预测方法及装置在审
申请号: | 202010926803.5 | 申请日: | 2020-09-07 |
公开(公告)号: | CN112114963A | 公开(公告)日: | 2020-12-22 |
发明(设计)人: | 邵玉杰 | 申请(专利权)人: | 中国银行股份有限公司 |
主分类号: | G06F9/50 | 分类号: | G06F9/50;G06N3/04;G06N3/08 |
代理公司: | 北京三友知识产权代理有限公司 11127 | 代理人: | 吕俊刚;吴学锋 |
地址: | 100818 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 服务器 内存容量 预测 方法 装置 | ||
1.一种基于服务器内存容量预测方法,其特征在于,包括:
获得内存使用量数据和对应的时间点数据;
将所述内存使用量数据和对应的时间点数据输入训练好的LSTM神经网络模型,预测服务器内存容量,所述LSTM神经网络模型根据内存历史使用量数据和对应的历史时间点数据进行训练。
2.如权利要求1所述的服务器内存容量预测方法,其特征在于,在获得内存使用量数据和对应的时间点数据之后,对所述内存使用量数据和对应的时间点数据进行数据预处理,包括:
对内存使用量数据进行数据清洗;
对清洗后的内存使用量数据和对应的时间点数据进行插值,得到设定时间间隔的内存使用量数据和对应的时间点数据。
3.如权利要求1所述的服务器内存容量预测方法,其特征在于,按如下方式训练LSTM神经网络模型:
获得预设时刻的内存历史使用量数据和对应的历史时间点数据;
根据所述内存历史使用量数据,对应的历史时间点数据,以及LSTM神经网络模型在上一时刻的输出数据,得到LSTM神经网络模型在预设时刻的输入数据;
利用所述输入数据对LSTM神经网络模型进行训练。
4.如权利要求3所述的服务器内存容量预测方法,其特征在于,利用所述输入数据对LSTM神经网络模型进行训练,包括:
利用所述输入数据对LSTM神经网络模型中的权重参数进行训练,在训练的过程中利用反向传播算法调整权重参数,直至根据LSTM神经网络模型的损失函数得到的梯度满足预设收敛条件,确定训练后的神经网络模型。
5.一种基于服务器内存容量预测装置,其特征在于,包括:
数据获得模块,用于获得内存使用量数据和对应的时间点数据;
容量预测模块,用于将所述内存使用量数据和对应的时间点数据输入训练好的LSTM神经网络模型,预测服务器内存容量,所述LSTM神经网络模型根据内存历史使用量数据和对应的历史时间点数据进行训练。
6.如权利要求5所述的服务器内存容量预测装置,其特征在于,还包括:
预处理模块,用于在获得内存使用量数据和对应的时间点数据之后,对所述内存使用量数据和对应的时间点数据进行数据预处理,其中按如下方式进行数据预处理:
对内存使用量数据进行数据清洗;
对清洗后的内存使用量数据和对应的时间点数据进行插值,得到设定时间间隔的内存使用量数据和对应的时间点数据。
7.如权利要求5所述的服务器内存容量预测装置,其特征在于,所述容量预测模块进一步用于,按如下方式训练LSTM神经网络模型:
获得预设时刻的内存历史使用量数据和对应的历史时间点数据;
根据所述内存历史使用量数据,对应的历史时间点数据,以及LSTM神经网络模型在上一时刻的输出数据,得到LSTM神经网络模型在预设时刻的输入数据;
利用所述输入数据对LSTM神经网络模型进行训练。
8.如权利要求7所述的服务器内存容量预测装置,其特征在于,利用所述输入数据对LSTM神经网络模型进行训练,包括:
利用所述输入数据对LSTM神经网络模型中的权重参数进行训练,在训练的过程中利用反向传播算法调整权重参数,直至根据LSTM神经网络模型的损失函数得到的梯度满足预设收敛条件,确定训练后的神经网络模型。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4任一所述方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有执行权利要求1至4任一所述方法的计算机程序。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国银行股份有限公司,未经中国银行股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010926803.5/1.html,转载请声明来源钻瓜专利网。