[发明专利]基于帕累托优化的多目标强化学习方法和装置在审

专利信息
申请号: 202210282413.8 申请日: 2022-03-22
公开(公告)号: CN114742231A 公开(公告)日: 2022-07-12
发明(设计)人: 冯旸赫;阳方杰;黄红蓝;施伟;马扬;程光权;黄金才;刘忠 申请(专利权)人: 中国人民解放军国防科技大学
主分类号: G06N20/00 分类号: G06N20/00;G06N7/00
代理公司: 长沙国科天河知识产权代理有限公司 43225 代理人: 彭小兰
地址: 410073 湖*** 国省代码: 湖南;43
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 帕累托 优化 多目标 强化 学习方法 装置
【权利要求书】:

1.一种基于帕累托优化的多目标强化学习方法,其特征在于,所述方法包括:

采用概括的方式处理多目标强化学习问题,为每个策略计算每个子目标的Q值;

使用帕累托支配理论对所述子目标Q值进行非支配排序以获得帕累托前沿集;

从所述帕累托前沿集中随机选择动作与环境进行交互;

生成基于帕累托前沿集的多目标DQN算法,并利用所述DQN算法对目标网络进行训练以生成策略网络;

根据所述策略网络对所述帕累托前沿的子目标Q值的期望进行更新。

2.如权利要求1所述的方法,其特征在于,所述采用概括的方式处理多目标强化学习问题,为每个策略计算每个子目标的Q值的步骤,包括:

根据多目标强化学习问题定义策略π1严格支配策略π2,π1>π2,当且仅当该策略π1在每个目标上的表现不比π2策略差并且至少在其中一个目标上严格优于π2策略;

基于Q-learning的强化学习使用并行学习每个目标的Q值。

3.如权利要求1所述的方法,其特征在于,所述使用帕累托支配理论对所述子目标Q值进行非支配排序以获得帕累托前沿集的步骤,包括:

在多目标马尔可夫决策过程中,假设所有目标都最大化,定义为包含多目标马尔可夫决策过程p中的策略π集合;

属于的策略中的至少一个目标方面优于其他策略π',如下式所示:

其中Op是任务p中设置的目标,Πp表示任务p的策略集,εo定义了一个最小正值,该集合是多目标马尔可夫决策过程中的帕累托前沿集合。

4.如权利要求1所述的方法,其特征在于,所述从所述帕累托前沿集中随机选择动作与环境进行交互的步骤,包括:

从Pareto前沿集中随机选择动作以使用如下公式与环境交互:

a=randoma{Q(s,a|θ)}patero_front

5.如权利要求1所述的方法,其特征在于,所述生成基于帕累托前沿集的多目标DQN算法,并利用所述DQN算法对目标网络进行训练以生成策略网络的步骤,包括:

采用增量更新的方法在空间连续任务中学习,生成基于帕累托前沿集的多目标DQN方程,如下所示:

其中,表示目标网络的估计值Q,Q(st,at)展示行为网络的估计值Q,γ是折扣因子;

利用所述DQN方程对目标网络进行训练以生成策略网络。

6.如权利要求5所述的方法,其特征在于,所述利用所述DQN方程对目标网络进行训练以生成策略网络的步骤,包括:

利用所述DQN方程对目标网络进行训练,从帕累托前沿集中随机选择动作;

根据下式对每个目标使用方程的期望进行确定:

其中,每个目标可以有不同的折现因子γ。

7.如权利要求1至6任一项所述的方法,其特征在于,在强化学习中,动作值是根据状态s中的策略π选择动作所获得的预期回报,用贝尔曼方程表示为:

qπ(s,a)=∑s',rp(s',r|s,a)[r+γmaxa'qπ(s',a')]。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202210282413.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top