[发明专利]一种基于深度确定性策略梯度的自适应控制方法在审
申请号: | 202011297651.3 | 申请日: | 2020-11-19 |
公开(公告)号: | CN112597693A | 公开(公告)日: | 2021-04-02 |
发明(设计)人: | 卢旺;孟凡石;孙继泽 | 申请(专利权)人: | 沈阳航盛科技有限责任公司 |
主分类号: | G06F30/27 | 分类号: | G06F30/27;G06N3/08;G06K9/62;G06N3/04 |
代理公司: | 广东良马律师事务所 44395 | 代理人: | 刘海杰 |
地址: | 110000 辽*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 确定性 策略 梯度 自适应 控制 方法 | ||
1.一种基于深度确定性策略梯度的自适应控制方法,其特征在于:它包括以下步骤:
1)首先依据真实系统特性构建仿真训练环境,仿真训练环境与真实系统保持一致,使环境与强化学习训练进行交互;
2)分别构建状态,回报,动作和截止条件作为深度强化学习的训练要素,动作区间:a∈[Amin,Amax],根据真实系统进行控制指令限幅;
3)构建critic网络、actor网络和相应的critic-target网络、actor-target网络,上述网络形成神经网络;
4)对critic网络和actor网络进行若干轮训练;本轮训练结束,开始下一轮训练;
5)使用训练结果actor网络作为控制器。
2.根据权利要求1所述的一种基于深度确定性策略梯度的自适应控制方法,其特征在于:所述状态,回报,动作和截止条件分别为状态state:以当前值truevalue,误差值error=reference–truevalue和误差的积分∫edt作为状态量state;
回报:reward=10(|e|<0.1)-1(|e|≥0.1)-100(truevalue≤min||truevalue≥max)如果实际值小于最小值min或最大值max,则回报为-100;如果误差绝对值大于0.1,则回报值为-1;如果误差绝对值小于0.1,则回报值为+10;
截至条件:如果truevalue≤min||truevalue≥max,则本轮训练终止。
3.根据权利要求1所述的一种基于深度确定性策略梯度的自适应控制方法,其特征在于:对critic网络和actor网络进行训练的流程包括:
A)初始化actor网络和critic网络的神经网络参数θQ和θμ,并将参数拷贝至actor-target网络和critic-target网络;初始化经验池;
接下来开始进行M轮训练:
B)actor根据actor网络选择一个action,并传递到环境中,at=μ(st|θμ)+OUt,其中OUt表示噪声生成的随机过程;
C)环境执行action后返回回报reward和新的状态state(t+1);
D)将(st,at,rt,st+1)存入经验池,随机采样N个数据作为网络训练的mini-batch;
E)计算神经网络的loss,依据公式:
yi=ri+γQ′(si+1,μ′(si+1,|θμ′)|θQ′)
F)采用Adam optimizer更新θQ;
G)计算actor网络的策略梯度:
H)采用Adam optimizer更新θμ;
I)采用soft update方式更新actor-target网络和critic-target网络:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于沈阳航盛科技有限责任公司,未经沈阳航盛科技有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011297651.3/1.html,转载请声明来源钻瓜专利网。