[发明专利]一种基于鲁棒模仿学习的模拟器建模方法有效
申请号: | 202110654854.1 | 申请日: | 2021-06-11 |
公开(公告)号: | CN113239634B | 公开(公告)日: | 2022-11-04 |
发明(设计)人: | 杨正宇;张伟楠;丁宁;俞勇 | 申请(专利权)人: | 上海交通大学 |
主分类号: | G06F30/27 | 分类号: | G06F30/27;G06N20/00 |
代理公司: | 上海旭诚知识产权代理有限公司 31220 | 代理人: | 郑立 |
地址: | 200240 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 模仿 学习 模拟器 建模 方法 | ||
1.一种基于鲁棒模仿学习的模仿机器人行为的模拟器建模方法,其特征在于,包括以下步骤:
步骤1、从机器人策略分布中采样出训练机器人策略集合Π和测试机器人策略集合Π′;
步骤2、令所述训练机器人策略集合Π的机器人策略π与真实机器人p*进行交互,以获得真实数据集合Bπ={(s,a,s′)~(π,p*)};
其中s代表状态,a代表动作,s’代表真实机器人p*在给定s,a的前提下会转变到的状态,所有机器人策略收集到的数据集合记为B={Bπ|π∈Π};
步骤3、每k步进行一次机器人策略筛选;令所述训练机器人策略集合Π中的机器人策略π与学习到的模仿机器人行为的模拟器进行交互,并计算价值差异VD,以衡量模仿机器人行为的模拟器在机器人策略π下的表现;选取其中表现最差的机器人策略构成集合Πc,其对应的数据集记为Bc={Bπ|π∈Πc};
其中模仿机器人行为的模拟器以动作状态对(s,a)作为输入,并输出对于接下来的状态的预测,即可以将模仿机器人行为的模拟器看作为一个假的环境;
步骤4、从Bc中采样数据,并利用Πc中的机器人策略与当前模仿机器人行为的模拟器交互以收集数据,收集到的数据记为用以优化生成对抗模仿学习中的判别器Dω;
其中s代表状态,a代表动作,s’代表在给定s,a为输入的前提下的输出;
步骤5、从Dp中采样数据,并利用判别器Dω提供相应的奖励,进而用以优化生成模仿机器人行为的模拟器
步骤6、重复步骤3-5直到重复次数达到事先设定的阈值。
2.如权利要求1所述的基于鲁棒模仿学习的模仿机器人行为的模拟器建模方法,其特征在于,在机器人策略筛选时采用所述价值差异VD作为指标,所述价值差异VD为:
其中V(p,π)指的是机器人策略π在环境或者是模仿机器人行为的模拟器p上所获得的累积奖励,VD的值越大,代表模仿机器人行为的模拟器在机器人策略π上表现越差。
3.如权利要求1所述的基于鲁棒模仿学习的模仿机器人行为的模拟器建模方法,其特征在于,所述判别器Dω根据Bc与Dp中的数据进行判别器优化,而且判别器Dω以状态转移对(s,a,s′)作为输入,并输出一个实数。
4.如权利要求3所述的基于鲁棒模仿学习的模仿机器人行为的模拟器建模方法,其特征在于,所述判别器优化的损失函数为:
其中p*,分别代表真实机器人和模仿机器人行为的模拟器,|Πc|代表集合Πc中机器人策略的数目,πi代表集合|Πc|中的第i个元素,Dω(s,a,s′)代表了判别器对于状态转移对(s,a,s′)的输出。
5.如权利要求1所述的基于鲁棒模仿学习的模仿机器人行为的模拟器建模方法,其特征在于,所述模仿机器人行为的模拟器根据Dp中的数据进行模仿机器人行为的模拟器优化。
6.如权利要求1所述的基于鲁棒模仿学习的模仿机器人行为的模拟器建模方法,其特征在于,所述模仿机器人行为的模拟器优化包括以下步骤:
利用所述判别器Dω生成状态转移对(s,a,s′)相应的奖励r;
采用强化学习中的演员-评论家算法对所述模仿机器人行为的模拟器进行优化。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学,未经上海交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110654854.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:室内管路异常探测系统及方法
- 下一篇:适用于套袋机的封口装置