[发明专利]一种基于深度强化学习的机械臂控制方法及系统有效
申请号: | 202111475392.3 | 申请日: | 2021-12-06 |
公开(公告)号: | CN114012735B | 公开(公告)日: | 2022-08-05 |
发明(设计)人: | 魏巍;王达;李琳;梁吉业 | 申请(专利权)人: | 山西大学 |
主分类号: | B25J9/16 | 分类号: | B25J9/16 |
代理公司: | 北京高沃律师事务所 11569 | 代理人: | 刘芳 |
地址: | 030006 山*** | 国省代码: | 山西;14 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 强化 学习 机械 控制 方法 系统 | ||
1.一种基于深度强化学习的机械臂控制方法,其特征在于,所述方法包括:
建立机械臂的环境空间、机械臂的状态、机械臂的动作以及抓取物体的目标位置;
机械臂在每个时刻t观察自身状态st,在当前策略π下选择一个动作at与环境进行交互,得到环境的反馈rt,并转移到下一个状态st+1,此时获得时刻t下的经验,et=(st,at,rt,st+1),即样本,所述样本的数量为M;
构建短期记忆回放池B1和被遗忘回忆池B2;所述短期记忆回放池B1的大小为K;
将获取的M个样本以η的概率替换所述短期记忆回放池B1中的样本;
将所有被替换的样本存入所述被遗忘回忆池B2中;
在所述短期记忆回放池B1和被遗忘回忆池B2中按照各自的抽样比例进行抽样,抽取B个样本;
采用抽取的B个样本对神经网络进行训练,更新当前策略;
将机械臂的当前状态st输入至训练好的神经网络中,得到动作输出;
将所述动作输出作为机械臂在当前状态下所需执行的最优动作。
2.根据权利要求1所述的基于深度强化学习的机械臂控制方法,其特征在于,所述机械臂的当前状态st=st||gt,gt为目标位置,双竖线符号“||”表示两个向量进行串联拼接。
3.根据权利要求1所述的基于深度强化学习的机械臂控制方法,其特征在于,所述样本数量M远小于K,K为短期记忆回放池B1的大小。
4.根据权利要求1所述的基于深度强化学习的机械臂控制方法,其特征在于,所述概率η的表达式如下:
其中,x表示时间步的索引,T表示实验设置的总时间步。
5.根据权利要求1所述的基于深度强化学习的机械臂控制方法,其特征在于,在所述短期记忆回放池B1和被遗忘回忆池B2中按照各自的抽样比例进行抽样,抽取B个样本具体包括:
定义退火的参数α;
从B1中均匀抽取α·B个样本,从B2中均匀抽取(1-α)·B个样本。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山西大学,未经山西大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111475392.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种末梢血混匀机构及其工作方法
- 下一篇:浮体集成式鱼类驯化装置