[发明专利]一种基于深度重构模型的功率放大器行为建模方法有效

专利信息
申请号: 201510629062.3 申请日: 2015-09-28
公开(公告)号: CN105224985B 公开(公告)日: 2017-10-31
发明(设计)人: 邵杰;金相君;杨恬甜;安文威;张鑫 申请(专利权)人: 南京航空航天大学
主分类号: G06N3/02 分类号: G06N3/02;G06N3/08
代理公司: 南京瑞弘专利商标事务所(普通合伙)32249 代理人: 徐激波
地址: 210016 江*** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 模型 功率放大器 行为 建模 方法
【权利要求书】:

1.一种基于深度重构模型的功率放大器行为建模方法,其特征在于:包括以下步骤:

步骤A:准备系统行为建模所需的功率放大器数字化后的输入信号数据向量x=[x(1),x(2),…,x(N)]和输出信号数据向量yd=[yd,1,yd,2,…,yd,N],其中N为数据长度;

步骤B:将输入和输出数据归一化;

x(i)=x(i)max(x),yd,i=yd,imax(yd),i=1,2,...,N]]>

步骤C:初始化RBM网络,RBM网络的模型结构有两层:可见层和隐含层,其过程如下:

步骤C-1:设置RBM网络可见层有N个单元,构成可见层单元向量v=[v1,v2,…vN],接收外部的输入变量并将输入变量传递到隐含层单元;隐含层有L个单元,构成隐含层单元向量h=[h1,h2,…hL];从可见层到隐含层有N×L维权系数矩阵可见层单元有1×N维偏置向量a=[a1,a2,…aN],隐含层单元有1×L偏置向量b=[b1,b2,…bL];构成RBM网络的系数矩阵θ={R,a,b};

步骤C-2:设置RBM网络的系数矩阵θ=0;

步骤C-3:设置RBM网络的训练最大迭代次数T;

步骤C-4:设置RBM网络重构误差的误差阈值为μ;

步骤C-5:设置RBM网络的学习速率为φ;

步骤C-6:设置重构误差初始值Ereconst(0)=0;

步骤D:使用输入数据训练二进制RBM网络,它的随机变量(v,h)只从{0,1}取值,vi和hj是可见层单元i和隐含层单元j的二进制状态,Rij是可见层单元i和隐含层单元j的权系数;每一次迭代训练由两个RBM网络组成,其中,底层RBM的隐含层连接顶层RBM的可见层;其过程如下:

步骤D-1:初始化可见层输入数据

步骤D-2:对于所有隐含层的节点j:计算也就是进行层与层之间的映射运算其中,是sigmoid激励函数;依据进行吉布斯采样(Gibbs Sampling)得到

步骤D-3:对于所有可见层的节点i:计算即进行层与层之间的映射运算依据进行吉布斯采样得到

步骤D-4:对于所有隐含层的节点j:计算即进行层与层之间的映射运算依据进行吉布斯采样得到

步骤D-5:RBM网络的学习算法是基于梯度上升的对数似然函数;计算梯度参数ΔRij(t),Δai(t),Δbj(t),其中t为RBM网络训练迭代次数:

ΔRij(t)=log P(v;θ)Rij=Edata[vhT]-Emodel[vhT]]]>

Δai(t)=log P(v;θ)ai=Edata[h]-Emodel[h]]]>

Δbj(t)=log P(v;θ)bj=Edata[v]-Emodel[v]]]>

其中,Edata[·]为基于数据的期望,Emodel[·]为模型期望;

步骤D-6:计算更新的Rij(t+1)、ai(t+1)、bj(t+1);

Rij(t+1)=Rij(t)+φΔRij(t)

ai(t+1)=ai(t)+φ·Δai(t)

bj(t+1)=bj(t)+φ·Δbj(t)

步骤D-7:用v0和v1计算RBM网络的重构误差Ereconst

Ereconst(t+1)=Ereconst(t)+||v0-v1||

其中,||·||为2-范数;

步骤D-8:迭代次数加1,即t=t+1;当迭代次数t=T或者重构误差Ereconst(t)≤μ时,结束训练,跳到步骤D-9;否则,返回步骤D-1,继续训练;

步骤D-9:获得目标更新的权系数为R;

步骤E:初始化ENN,ENN的模型结构有四层:输入层、隐含层、承接层和输出层;其过程如下:

步骤E-1:设置ENN输入层有N个神经元,接受外部的输入变量u=[u1,u2,…uN]并将输入变量传递到隐含层;隐含层有L个神经元,每个神经元都具有传递函数f=Hi(p)(i=1,2,…,L),隐含层向量H(p)=[H1(p),H2(p),…HL(p)];承接层是隐含层对于神经元的延时,同时拥有一个反馈系数为α的自反馈,所以该层的神经元个数与隐含层相同,承接层向量Xc(p)=[Xc,1(p),Xc,2(p),…Xc,L(p)];输出层有M个神经元,该层神经元的输出ymy,(m(m=1,1,2,2,…,,MM),)是隐含层神经元输出的线性组合;

步骤E-2:设置最大迭代次数为Nmax

步骤E-3:设置误差函数的误差阈值为ε;

步骤E-4:在ENN模型中,有三种权系数矩阵:从隐含层到输出层的L×M维的权系数矩阵W1;从输入层到隐含层的N×L维的权系数矩阵W2;从承接层到隐含层的L×L维的权系数矩阵W3;设置网络的初始权值,其中输入层到隐含层的初始权值W2(0)使用RBM网络的训练结果,即

W1(0)=0,W2(0)=R,W3(0)=0

步骤E-5:设置网络的学习速率η1,η2,η3

步骤E-6:设置承接层的初始值Xc(0)=0;

步骤E-7:设置承接层的自反馈系数α;

步骤F:利用ENN对行为模型进行建模,其过程如下:

步骤F-1:根据ENN,由动态方程计算ENN各层的输出:

y(p)=W1(p)H(p)

H(p)=f[W2(p)u+W3(p)Xc(p)]

Xc(p)=αH(p-1)

其中p为迭代次数,f是sigmoid激励函数;

步骤F-2:计算目标误差函数,其定义为:

E(p)=12[(yd-y(p))T(yd-y(p))]]]>

其中y(p)为第p次迭代的ENN网络模型的输出,为系统的实际归一化输出;如果误差函数E(p)>ε,进行步骤F-3;如果误差函数E(p)<ε,则进行步骤G;

步骤F-3:用最速下降算法训练网络,得到模型的权值矩阵的变化量:

ΔWlm1(p)=-η1E(p)Wlm1(p)=η1δmo(p)Hl(p)]]>

ΔWnl2(p)=-η2E(p)Wnl2(p)=η2δlh(p)Hl(p)Wnl2(p)]]>

ΔWkl3(p)=-η3E(p)Wkl3(p)=η3δlh(p)Hl(p)Wkl3(p)]]>

其中

δmo(p)=yd,m-ym(p)]]>

δlh(p)=Σm=1Mδmo(p)Wlm1(p)]]>

Hl(p)Wnl2(p)=fl(·)[un+αWll3(p)Hl(p-1)Wnl2(p-1)]]]>

Hl(p)Wkl3(p)=fl(·)[αHk(p-1)+αWll3(p)Hl(p-1)Wkl3(p-1)]]]>

这里j表示输入层的第j个神经元,i表示隐含层的第i个神经元,k表示承接层的第k个神经元,m代表输出层的第m个神经元,f′l(·)是激励函数f的导数;

步骤F-4:迭代次数加1,即p=p+1;当迭代次数小于最大迭代次数Nmax时,继续步骤F-5;当迭代次数大于最大迭代次数Nmax时,停止迭代,执行步骤G;

步骤F-5:根据ΔW1(p),ΔW2(p),ΔW3(p),更新权值系数,其中

W1(p+1)=W1(p)+ΔW1(p)

W2(p+1)=W2(p)+ΔW2(p)

W3(p+1)=W3(p)+ΔW3(p)

步骤F-6:返回步骤F-1;

步骤G:通过步骤F得到的权系数,计算ENN模型最终的输出y。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201510629062.3/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top