[发明专利]一种基于时间序列的数据修复方法在审
申请号: | 201811568073.5 | 申请日: | 2018-12-21 |
公开(公告)号: | CN109670580A | 公开(公告)日: | 2019-04-23 |
发明(设计)人: | 付明磊;胡海霞 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 杭州斯可睿专利事务所有限公司 33241 | 代理人: | 王利强 |
地址: | 310014 浙江省杭*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 一种基于时间序列的数据修复方法,包括以下步骤:步骤1:正向Elman神经网络预测模型训练,所述正向Elman神经网络预测模型训练包括模型初步结构设计和网络训练;步骤2:反向Elman神经网络推演模型训练,所述反向Elman神经网络预测模型训练包括模型初步结构设计和网络训练;步骤3:数据修复模型设计,过程如下:3.1确定网络参数;3.2数据修复模型设计。结合正向Elman神经网络预测值及反向Elman神经网络推演值,以其各自准确度作为参考权重,从而得出数据修复值,理论上具有较高可信度;以自适应梯度控制法计算网络各层阈值及相互之间权重,具有较快收敛速度,可提高计算效率。 | ||
搜索关键词: | 数据修复 神经网络预测模型 正向 模型设计 神经网络 时间序列 网络训练 推演 权重 神经网络预测 准确度 高可信度 计算网络 计算效率 模型训练 梯度控制 网络参数 自适应 收敛 参考 | ||
【主权项】:
1.一种基于时间序列的数据修复方法,其特征在于,所述方法包括以下步骤:步骤1:正向Elman神经网络预测模型训练,所述正向Elman神经网络预测模型训练包括模型初步结构设计和网络训练,过程如下:步骤1.1:正向Elman神经网络预测模型初步结构设计,所述正向Elman神:经网络预测模型包括输入层、隐含层、承接层及输出层,设计过程如下:1.1.1输入层输入层包含若干传输节点,起传输信号的作用,同时对输入的原始正向Elman神经网络预测模型训练样本时间序列数据进行数据预处理,剔除超出所设阈值范围[umin,umax]的异常值,由其附近均值代替:其中,u(r)为原始数列中第r项数据,u(r‑1)为原始数列中第r‑1项数据,u(r+1)为该原始数列中第r+1项数据;umax为所设定阈值范围内最大值,umin为所设定阈值范围内最小值,u(n)为处理后的一组时间序列即正向Elman神经网络输入层的输出向量;1.1.2隐含层隐含层包含若干隐含层神经元,同时接收来自输入层节点的输入信号以及承接层节点的反馈输入,采用logsig激活函数,函数公式如下:其中,σ为隐含层输入,包括输入层的输出值、承接层的反馈输入值及偏置项,在此模型中σ=w1u(n‑1)+w3l(n)+bh;隐含层表达式为:h(n)=f(w1u(n‑1)+w3l(n)+bh) (3)其中,n为迭代时间步,bh为隐含层阈值矩阵,u(n‑1)为输入层第n‑1项迭代过程输出值,l(n)为承接层反馈输入,w1代表输入层到隐含层连接权值矩阵,w3代表承接层到隐含层连接权值矩阵;h(n)为隐含层输入σ经由logsig激活函数f(·)得到的隐含层输出向量;1.1.3承接层承接层为延时算子,每个承接层神经元有且仅有一个隐含层神经元与之对应,分别记忆和存储该隐含层神经元t‑1时刻的输出值,并将它们延迟反馈给隐含层神经元;因此,网络在t时刻的输出状态不仅与当前t时刻输入信号有关,还与t‑1时刻的网络状态有关,具有适应系统动态改变的特性;承接层表达式为:l(n)=α·l(n‑1)+h(n‑1) (4)其中,l(n)为承接层第n项迭代过程输出向量也作为隐含层第n项迭代的反馈输入,l(n‑1)为承接层第n‑1项迭代过程输出向量,h(n‑1)为隐含层第n‑1项迭代过程输出向量,α为自连接反馈增益因子,0≤α≤1;1.1.4输出层输出层神经元接收来自隐含层神经元的输入,起到线性加权的作用,采用线性函数g(·)作为输出层的激活函数,输出层表达式为:y(n)=g(w2h(n)+by) (5)其中,by为输出层阈值矩阵,w2代表隐含层到输出层连接权值矩阵,y(n)为输出层输入经由线性激活函数g(·)得到的输出层输出向量;步骤1.2:正向Elman神经网络预测模型网络训练,所述正向Elman神经网络以自适应反向传播算法进行最佳连接权值与阈值的选取,以获得状态最优的Elman神经网络模型,训练过程如下:1.2.1定义误差函数若所述Elman神经网络训练过程的第k步的实际输出为y(k),期望输出为则定义网络的误差函数为:1.2.2自适应梯度控制所述自适应反向传播算法包括在传统反向传播算法基础上自适应地改变BP学习中的学习率η,以控制学习过程中梯度下降速度,达到改善传统BP算法收敛速度慢的缺点,自适应学习率设计为:其中,代表前i次迭代的误差函数梯度值;步骤2:反向Elman神经网络推演模型训练,所述反向Elman神经网络预测模型训练包括模型初步结构设计和网络训练,训练过程如下:步骤2.1:反向Elman神经网络推演模型初步结构设计,所述反向Elman神经网络推演模型包括输入层、隐含层、承接层及输出层,设计过程如下:2.1.1输入层输入层同样起传输信号的作用,同时也对输入的原始反向Elman神经网络推演模型训练样本时间序列数据进行数据预处理,剔除超出所设阈值范围[umin,umax]的异常值,由其附近均值代替;其中,u(t)为原始数列中第t项数据,u(t‑1)为原始数列中第t‑1项数据,u(t+1)为该原始数列中第t+1项数据;umax为所设定阈值范围内最大值,umin为所设定阈值范围内最小值,u(m)为处理后的一组时间序列即反向Elman神经网络输入层的输出向量;2.1.2隐含层隐含层包含若干隐含层神经元,接收来自输入层节点的输入信号,隐含层表达式为:其中,m为迭代时间步,g‑(·)代表线性函数的逆,bh为隐含层阈值矩阵,h(m)为隐含层第m项迭代过程的输出向量,u(m)为输入层的输出向量,即隐含层的输入向量,w1代表输入层到隐含层连接权值矩阵;2.1.3承接层反向Elman神经网络推演模型中承接层起记忆和存储该隐含层神经元t+1时刻的输出值的作用,同时反馈给输出层神经元,每个承接层神经元有且仅有一个输出层神经元与之对应,承接层表达式为:l(m)=α·l(m+1)+h(m+1) (10)其中,l(m)为承接层第m项迭代过程的输出向量,l(m+1)为承接层第m+1项迭代过程的输出向量,h(m+1)为隐含层第m+1项迭代过程的输出向量,α为自连接反馈增益因子,0≤α≤1;2.1.4输出层输出层神经元接收来自隐含层神经元的输入,同时接收来自承接层的反馈信号,输出层表达式为:其中,l(m)为承接层第m项迭代过程的输出向量即承接层对输出层的反馈输入,by为输出层阈值矩阵,w2代表隐含层到输出层连接权值矩阵,w3代表承接层到输出层连接权值矩阵,y(m)为各输入项经由f(·)函数求逆与w2的比值,即输出层输出向量,f(·)为logsig激活函数,与公式(2)表达式相同;步骤2.2:反向Elman神经网络推演模型网络训练,所述反向Elman神经网络以自适应反向传播算法进行最佳连接权值与阈值的选取,以获得状态最优的反向Elman神经网络推演模型,训练过程如下:2.2.1定义误差函数若所述Elman神经网络训练过程的第k步的实际输出为y(k),期望输出为则定义网络的误差函数为:2.2.2自适应梯度控制所述自适应反向传播算法包括在传统反向传播算法基础上自适应地改变BP学习中的学习率η,以控制学习过程中梯度下降速度,达到改善传统BP算法收敛速度慢的缺点,自适应学习率设计为:其中,代表前i次迭代的误差函数梯度值,步骤3:数据修复模型设计,过程如下:3.1确定网络参数正向Elman神经网络预测模型以序列u(n)的任意子序列作为训练样本,反向Elman神经网络推演模型以序列u(m)的任意子序列作为训练样本;当误差满足要求,或训练达到设定次数,结束正向Elman神经网络预测模型网络及反向Elman神经网络推演模型训练,确定所述正向Elman神经网络及反向Elman神经网络各层的连接权重与阈值;3.2数据修复模型设计向正向Elman神经网络预测模型输入测试样本数据,得到其输出结果y(n);同样由反向Elman神经网络推演模型获得y(m);当预测值y(n)与推演值y(m)所表示的为该序列中同一真实值y(i)经过所述基于时序数据的数据修复算法得到的数值;y(i)=γ1y(n)+γ2y(m) (14)γ1,γ2为权重,分别由正向Elman神经网络及反向Elman神经网络各自训练的准确度决定。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201811568073.5/,转载请声明来源钻瓜专利网。