[发明专利]一种基于深度重构模型的功率放大器行为建模方法有效
申请号: | 201510629062.3 | 申请日: | 2015-09-28 |
公开(公告)号: | CN105224985B | 公开(公告)日: | 2017-10-31 |
发明(设计)人: | 邵杰;金相君;杨恬甜;安文威;张鑫 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G06N3/02 | 分类号: | G06N3/02;G06N3/08 |
代理公司: | 南京瑞弘专利商标事务所(普通合伙)32249 | 代理人: | 徐激波 |
地址: | 210016 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于深度重构模型的功率放大器行为建模方法,本深度重构模型结合了深度学习理论和Elman神经网络的优点,通过使用受限波尔兹曼机来初始化神经网络的权系数,在建模过程中只需较少的迭代次数,获得更快的收敛速度;利用Elman神经网络的输出除了与即时输入有关,也与历史输入有关的特点,用于描述非线性系统的记忆效应,完成功率放大器行为模型的精确重构。 | ||
搜索关键词: | 一种 基于 深度 模型 功率放大器 行为 建模 方法 | ||
【主权项】:
一种基于深度重构模型的功率放大器行为建模方法,其特征在于:包括以下步骤:步骤A:准备系统行为建模所需的功率放大器数字化后的输入信号数据向量x=[x(1),x(2),…,x(N)]和输出信号数据向量yd=[yd,1,yd,2,…,yd,N],其中N为数据长度;步骤B:将输入和输出数据归一化;x‾(i)=x(i)max(x),y‾d,i=yd,imax(yd),i=1,2,...,N]]>步骤C:初始化RBM网络,RBM网络的模型结构有两层:可见层和隐含层,其过程如下:步骤C‑1:设置RBM网络可见层有N个单元,构成可见层单元向量v=[v1,v2,…vN],接收外部的输入变量并将输入变量传递到隐含层单元;隐含层有L个单元,构成隐含层单元向量h=[h1,h2,…hL];从可见层到隐含层有N×L维权系数矩阵可见层单元有1×N维偏置向量a=[a1,a2,…aN],隐含层单元有1×L偏置向量b=[b1,b2,…bL];构成RBM网络的系数矩阵θ={R,a,b};步骤C‑2:设置RBM网络的系数矩阵θ=0;步骤C‑3:设置RBM网络的训练最大迭代次数T;步骤C‑4:设置RBM网络重构误差的误差阈值为μ;步骤C‑5:设置RBM网络的学习速率为φ;步骤C‑6:设置重构误差初始值Ereconst(0)=0;步骤D:使用输入数据训练二进制RBM网络,它的随机变量(v,h)只从{0,1}取值,vi和hj是可见层单元i和隐含层单元j的二进制状态,Rij是可见层单元i和隐含层单元j的权系数;每一次迭代训练由两个RBM网络组成,其中,底层RBM的隐含层连接顶层RBM的可见层;其过程如下:步骤D‑1:初始化可见层输入数据步骤D‑2:对于所有隐含层的节点j:计算也就是进行层与层之间的映射运算其中,是sigmoid激励函数;依据进行吉布斯采样(Gibbs Sampling)得到步骤D‑3:对于所有可见层的节点i:计算即进行层与层之间的映射运算依据进行吉布斯采样得到步骤D‑4:对于所有隐含层的节点j:计算即进行层与层之间的映射运算依据进行吉布斯采样得到步骤D‑5:RBM网络的学习算法是基于梯度上升的对数似然函数;计算梯度参数ΔRij(t),Δai(t),Δbj(t),其中t为RBM网络训练迭代次数:ΔRij(t)=∂logP(v;θ)∂Rij=Edata[vhT]-Emodel[vhT]]]>Δai(t)=∂logP(v;θ)∂ai=Edata[h]-Emodel[h]]]>Δbj(t)=∂logP(v;θ)∂bj=Edata[v]-Emodel[v]]]>其中,Edata[·]为基于数据的期望,Emodel[·]为模型期望;步骤D‑6:计算更新的Rij(t+1)、ai(t+1)、bj(t+1);Rij(t+1)=Rij(t)+φΔRij(t)ai(t+1)=ai(t)+φ·Δai(t)bj(t+1)=bj(t)+φ·Δbj(t)步骤D‑7:用v0和v1计算RBM网络的重构误差Ereconst,Ereconst(t+1)=Ereconst(t)+||v0‑v1||其中,||·||为2‑范数;步骤D‑8:迭代次数加1,即t=t+1;当迭代次数t=T或者重构误差Ereconst(t)≤μ时,结束训练,跳到步骤D‑9;否则,返回步骤D‑1,继续训练;步骤D‑9:获得目标更新的权系数为R;步骤E:初始化ENN,ENN的模型结构有四层:输入层、隐含层、承接层和输出层;其过程如下:步骤E‑1:设置ENN输入层有N个神经元,接受外部的输入变量u=[u1,u2,…uN]并将输入变量传递到隐含层;隐含层有L个神经元,每个神经元都具有传递函数f=Hi(p)(i=1,2,…,L),隐含层向量H(p)=[H1(p),H2(p),…HL(p)];承接层是隐含层对于神经元的延时,同时拥有一个反馈系数为α的自反馈,所以该层的神经元个数与隐含层相同,承接层向量Xc(p)=[Xc,1(p),Xc,2(p),…Xc,L(p)];输出层有M个神经元,该层神经元的输出ymy,(m(m=1,1,2,2,…,,MM),)是隐含层神经元输出的线性组合;步骤E‑2:设置最大迭代次数为Nmax;步骤E‑3:设置误差函数的误差阈值为ε;步骤E‑4:在ENN模型中,有三种权系数矩阵:从隐含层到输出层的L×M维的权系数矩阵W1;从输入层到隐含层的N×L维的权系数矩阵W2;从承接层到隐含层的L×L维的权系数矩阵W3;设置网络的初始权值,其中输入层到隐含层的初始权值W2(0)使用RBM网络的训练结果,即W1(0)=0,W2(0)=R,W3(0)=0步骤E‑5:设置网络的学习速率η1,η2,η3;步骤E‑6:设置承接层的初始值Xc(0)=0;步骤E‑7:设置承接层的自反馈系数α;步骤F:利用ENN对行为模型进行建模,其过程如下:步骤F‑1:根据ENN,由动态方程计算ENN各层的输出:y(p)=W1(p)H(p)H(p)=f[W2(p)u+W3(p)Xc(p)]Xc(p)=αH(p‑1)其中p为迭代次数,f是sigmoid激励函数;步骤F‑2:计算目标误差函数,其定义为:E(p)=12[(y‾d-y(p))T(y‾d-y(p))]]]>其中y(p)为第p次迭代的ENN网络模型的输出,为系统的实际归一化输出;如果误差函数E(p)>ε,进行步骤F‑3;如果误差函数E(p)<ε,则进行步骤G;步骤F‑3:用最速下降算法训练网络,得到模型的权值矩阵的变化量:ΔWlm1(p)=-η1∂E(p)∂Wlm1(p)=η1δmo(p)Hl(p)]]>ΔWnl2(p)=-η2∂E(p)∂Wnl2(p)=η2δlh(p)∂Hl(p)∂Wnl2(p)]]>ΔWkl3(p)=-η3∂E(p)∂Wkl3(p)=η3δlh(p)∂Hl(p)∂Wkl3(p)]]>其中δmo(p)=y‾d,m-ym(p)]]>δlh(p)=Σm=1Mδmo(p)Wlm1(p)]]>∂Hl(p)∂Wnl2(p)=fl′(·)[un+αWll3(p)∂Hl(p-1)∂Wnl2(p-1)]]]>∂Hl(p)∂Wkl3(p)=fl′(·)[αHk(p-1)+αWll3(p)∂Hl(p-1)∂Wkl3(p-1)]]]>这里j表示输入层的第j个神经元,i表示隐含层的第i个神经元,k表示承接层的第k个神经元,m代表输出层的第m个神经元,f′l(·)是激励函数f的导数;步骤F‑4:迭代次数加1,即p=p+1;当迭代次数小于最大迭代次数Nmax时,继续步骤F‑5;当迭代次数大于最大迭代次数Nmax时,停止迭代,执行步骤G;步骤F‑5:根据ΔW1(p),ΔW2(p),ΔW3(p),更新权值系数,其中W1(p+1)=W1(p)+ΔW1(p)W2(p+1)=W2(p)+ΔW2(p)W3(p+1)=W3(p)+ΔW3(p)步骤F‑6:返回步骤F‑1;步骤G:通过步骤F得到的权系数,计算ENN模型最终的输出y。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201510629062.3/,转载请声明来源钻瓜专利网。