[发明专利]一种基于深度确定性策略梯度的自适应控制方法在审
申请号: | 202011297651.3 | 申请日: | 2020-11-19 |
公开(公告)号: | CN112597693A | 公开(公告)日: | 2021-04-02 |
发明(设计)人: | 卢旺;孟凡石;孙继泽 | 申请(专利权)人: | 沈阳航盛科技有限责任公司 |
主分类号: | G06F30/27 | 分类号: | G06F30/27;G06N3/08;G06K9/62;G06N3/04 |
代理公司: | 广东良马律师事务所 44395 | 代理人: | 刘海杰 |
地址: | 110000 辽*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 确定性 策略 梯度 自适应 控制 方法 | ||
本发明提供了一种基于深度确定性策略梯度的自适应控制方法,依据真实系统特性构建的仿真训练环境;构建状态(观测量),回报函数,截止条件,动作;构建深度确定性策略梯度方法的critic网络、actor网络和相应的目标网络,通过与仿真训练环境的试错交互进行训练;使用actor网络训练结果作为该系统的控制器。本发明将深度强化学习方法应用于控制器设计,介绍该方法的实施步骤,通过离线仿真训练,达到控制器要求后移植到真实环境中,实现非线性系统自适应控制。
技术领域:
本申请涉及计算机软件技术领域,具体涉及一种基于深度强化学习技术的自适应控制方法。
背景技术:
传统的PID控制器需要系统进行精确建模,并通过拉普拉斯变换将时域模型转换为频域传递函数,再根据根轨迹等方法设计经典PID控制器,该种方法缺点在于非线性问题需要进行线性假设,建模过程较为复杂,并且控制器设计的好坏依赖于所抽象的数学模型精确程度。
本申请所要解决的问题是如何解决非线性系统的控制问题,并且不依赖于精确的数学模型,构建一种无模型控制方法。
发明内容
本申请的目的是提出一种基于深度强化学习技术的自适应控制方法。解决非线性系统的控制问题,并且不依赖于精确的数学模型,构建一种无模型控制方法。
本申请的技术方案包括以下步骤:一种基于深度确定性策略梯度的自适应控制方法,其特征在于:它包括以下步骤:
1)首先依据真实系统特性构建仿真训练环境,仿真训练环境与真实系统保持一致,使环境与强化学习训练进行交互;
2)分别构建状态,回报,动作和截止条件作为深度强化学习的训练要素,动作区间:a∈[Amin,Amax],根据真实系统进行控制指令限幅;
3)构建critic网络、actor网络和相应的critic-target网络、actor-target网络,上述网络形成神经网络;
4)对critic网络和actor网络进行若干轮训练;本轮训练结束,开始下一轮训练;5)使用训练结果actor网络作为控制器。
所述状态,回报,动作和截止条件分别为状态state:以当前值truevalue,误差值error=reference–truevalue和误差的积分∫edt作为状态量state;
回报:reward=10(|e|<0.1)-1(|e|≥0.1)-100(truevalue≤min||truevalue≥max)如果实际值小于最小值min或最大值max,则回报为-100;如果误差绝对值大于0.1,则回报值为-1;如果误差绝对值小于0.1,则回报值为+10;
截至条件:如果truevalue≤min||truevalue≥max,则本轮训练终止。
对critic网络和actor网络进行训练的流程包括:
a)初始化actor网络和critic网络的神经网络参数θQ和θμ,并将参数拷贝至actor-target网络和critic-target网络;初始化经验池;
接下来开始进行M轮训练:
b)actor根据actor网络选择一个action,并传递到环境中,at=μ(st|θμ)+OUt,其中OUt表示噪声生成的随机过程;
c)环境执行action后返回回报reward和新的状态state(t+1);
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于沈阳航盛科技有限责任公司,未经沈阳航盛科技有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011297651.3/2.html,转载请声明来源钻瓜专利网。