[发明专利]一种基于深度确定性策略梯度的自适应控制方法在审

专利信息
申请号: 202011297651.3 申请日: 2020-11-19
公开(公告)号: CN112597693A 公开(公告)日: 2021-04-02
发明(设计)人: 卢旺;孟凡石;孙继泽 申请(专利权)人: 沈阳航盛科技有限责任公司
主分类号: G06F30/27 分类号: G06F30/27;G06N3/08;G06K9/62;G06N3/04
代理公司: 广东良马律师事务所 44395 代理人: 刘海杰
地址: 110000 辽*** 国省代码: 辽宁;21
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 确定性 策略 梯度 自适应 控制 方法
【权利要求书】:

1.一种基于深度确定性策略梯度的自适应控制方法,其特征在于:它包括以下步骤:

1)首先依据真实系统特性构建仿真训练环境,仿真训练环境与真实系统保持一致,使环境与强化学习训练进行交互;

2)分别构建状态,回报,动作和截止条件作为深度强化学习的训练要素,动作区间:a∈[Amin,Amax],根据真实系统进行控制指令限幅;

3)构建critic网络、actor网络和相应的critic-target网络、actor-target网络,上述网络形成神经网络;

4)对critic网络和actor网络进行若干轮训练;本轮训练结束,开始下一轮训练;

5)使用训练结果actor网络作为控制器。

2.根据权利要求1所述的一种基于深度确定性策略梯度的自适应控制方法,其特征在于:所述状态,回报,动作和截止条件分别为状态state:以当前值truevalue,误差值error=reference–truevalue和误差的积分∫edt作为状态量state;

回报:reward=10(|e|<0.1)-1(|e|≥0.1)-100(truevalue≤min||truevalue≥max)如果实际值小于最小值min或最大值max,则回报为-100;如果误差绝对值大于0.1,则回报值为-1;如果误差绝对值小于0.1,则回报值为+10;

截至条件:如果truevalue≤min||truevalue≥max,则本轮训练终止。

3.根据权利要求1所述的一种基于深度确定性策略梯度的自适应控制方法,其特征在于:对critic网络和actor网络进行训练的流程包括:

A)初始化actor网络和critic网络的神经网络参数θQ和θμ,并将参数拷贝至actor-target网络和critic-target网络;初始化经验池;

接下来开始进行M轮训练:

B)actor根据actor网络选择一个action,并传递到环境中,at=μ(stμ)+OUt,其中OUt表示噪声生成的随机过程;

C)环境执行action后返回回报reward和新的状态state(t+1);

D)将(st,at,rt,st+1)存入经验池,随机采样N个数据作为网络训练的mini-batch;

E)计算神经网络的loss,依据公式:

yi=ri+γQ′(si+1,μ′(si+1,|θμ′)|θQ′)

F)采用Adam optimizer更新θQ

G)计算actor网络的策略梯度:

H)采用Adam optimizer更新θμ

I)采用soft update方式更新actor-target网络和critic-target网络:

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于沈阳航盛科技有限责任公司,未经沈阳航盛科技有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202011297651.3/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top