[发明专利]一种支持多电器类型高精度的NILM实现方法有效
申请号: | 201710989410.7 | 申请日: | 2017-10-23 |
公开(公告)号: | CN107730003B | 公开(公告)日: | 2020-09-08 |
发明(设计)人: | 戴彬;李葱;徐方琳 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04;G06K9/62 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 张建伟;曹葆青 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 支持 电器 类型 高精度 nilm 实现 方法 | ||
1.一种支持多电器类型高精度的NILM的实现方法,其特征在于,包括如下步骤:
(1)从数据源获取用电特征;
所述用电特征指电气量数据,包括功率值和电压值;
所述数据源,包括公共数据集,指数据库软件生成的各种包含元器件信息的表格文件,或者是采集的电气量数据;
(2)获取用电特征后,根据选择的电器类型,进行训练数据的准备工作,包括提取负载激活,创建聚合数据;
所述电器类型,分为单状态和多状态型;所述电器类型选取用电特征需具有代表性,每个电器都至少存在于数据集UK-DALE的三个房子中,用以实现对于每个用电设备,至少能在两个房子上训练优化网络架构,并在不同的房子上进行测试的电器作为该类电器的训练对象;训练对象包括单状态和多状态或者多状态;
所述负载激活是指单个电器设备在该设备工作时间内获得的功率;
所述创建聚合数据,是根据提取到的负载激活,创建一个合成数据序列;
对于选定数据源包括的电器类型,随机选择任一设备激活,且该设备激活包含在序列中;目标设备是选择用来作为训练识别目标的,该聚合数据中的任何一个用电设备类型都可以作为目标设备进行训练;
(3)使用基于深度神经网络的方法,采用步骤(1)确定的数据源,和步骤(2)创建的聚合数据,对所选电器进行负荷电器用电特征的建模训练,实现对该深度神经网络的优化;
(4)利用步骤(3)优化后的深度神经网络,对总负荷输入进行负荷电器的识别操作,生成负载神经网络模型,用于对输入的总负荷功耗数据进行负荷识别分解。
2.根据权利要求1所述的方法,其特征在于,所述步骤(2)中根据负荷电器准备训练数据的过程,具体包括:
按照提取电器负载激活、选择训练数据的时间窗口和创建聚合数据,进行训练数据的准备工作。
3.如权利要求1或2所述的方法,其特征在于,时间窗口是需要进行训练的网络架构的输入数据窗口宽度,根据具体的电器设备而变化。
4.如权利要求1或2所述的方法,其特征在于,所述步骤(3)使用基于深度神经网络方法进行负荷电器的建模训练;所述训练过程是监督性的,即需要使用已知电器类型的单个电器用电数据进行训练,具体包括:
所述深度神经网络由降噪自动编码器dAE和循环神经网络RNN组成,降噪自动编码器是从有噪声的功耗输入重建清洁目标的自动编码器,使用其滤波去噪特性进行首次的建模过程,以产生一个较优的模型表示;
循环神经网络RNN是一个自反馈网络,使用长短时记忆神经网络LSTM实现;
数据训练使用反向传播算法实现,具体为:
对于一组样本,x(i),y(i),1≤i≤N,N为训练样本数量,神经网络通过下面公式进行信息传播:
a(m)=fm(z(m)) (1)
z(m)=W(m)·a(m-1)+b(m) (2)
其中a(m)表示第m层神经元的活性值,fm(z(m))表示第m层神经元的状态,b(m)表示第m-1层到第m层的偏差;通过公式(1)和(2)计算神经网络每一层的状态和激活值,直至最后一层;
所述循环神经网络RNN包括输入层、隐藏层和输出层组成,第一层为输入层,最后一层为输出层,其它中间层即为隐藏层;信息从输入层通过中间的隐藏层流向输出,其输出由网络的连接方式、权重值和激励函数决定;
神经网络的输出为f(x|W,b),目标函数为:
式中,W和b表示每一层的权重矩阵和偏差向量,λ为重量衰减参数,
目标是最小化J(W,b;x(i),y(i)),其中,J是损失函数,就是变化或者误差,x,y表示输入向量,(i)指神经网络的层数,采用梯度下降方法,更新参数如下:
式中α是参数更新率,误差项为目标函数关于第m层的神经元z(m)的偏导数,表示第m层的神经元对最终误差的影响,
误差项为
δ(m)=f′m(z(m))⊙((W(m+1))Tδ(m+1)) (10)
其中T是最大迭代次数,⊙是向量点积运算符,表示每个元素对应相乘;F表示范数;f′m(z(m))是fm(z(m))关于zm的偏导;
使用公式(10)反向计算,具体是通过误差函数对各神经元参数的偏导数来计算当前批次数据的误差表面梯度,然后将梯度乘以学习率参数来更新连接权重,每一层的误差δ(m),然后使用公式(8)和(9)计算每一层参数的导数,最后就根据公式(6)和(7)进行神经网络参数的更新,经过一定次数的迭代参数更新完成神经网络的训练过程,即完成对特定电器的建模操作。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710989410.7/1.html,转载请声明来源钻瓜专利网。