[发明专利]一种基于循环神经网络的自评估机器人任务中错误可知的策略学习方法在审
申请号: | 202211451138.4 | 申请日: | 2022-11-20 |
公开(公告)号: | CN115723132A | 公开(公告)日: | 2023-03-03 |
发明(设计)人: | 王越;许可淳;熊蓉 | 申请(专利权)人: | 浙江大学 |
主分类号: | B25J9/16 | 分类号: | B25J9/16;B25J15/08;G06N3/0442;G06N3/0455;G06N3/08 |
代理公司: | 杭州中成专利事务所有限公司 33212 | 代理人: | 李亦慈;唐银益 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 循环 神经网络 评估 机器人 任务 错误 可知 策略 学习方法 | ||
1.一种基于循环神经网络的自评估机器人任务中错误可知的策略学习方法,其特征在于,包括:
步骤1:获得任务观测o;
步骤2:根据预训练的策略π0(o)网络得到初始动作a0;
步骤3:根据自评估模块SA判断所述的动作是否失败;
步骤4:如果失败,则将该动作表征到基于动作的记忆矩阵mt中;
步骤5:错误可知的策略πFA利用循环神经网络处理基于动作的记忆矩阵mt得到新的动作分布,根据新的动作分布选择具有最大概率值的动作at;
步骤6:重复步骤3-5,如果步骤3中自评估模块SA评估通过,则执行所述的动作。
2.根据权利要求1所述的基于循环神经网络的自评估机器人任务中错误可知的策略学习方法,其特征在于,所述的步骤2中,预训练的策略π0(o)为对应机器人任务在训练数据上训练得到的策略,所述的策略选择的初始动作a0为该策略估计的具有最大概率值的动作。
3.根据权利要求1所述的基于循环神经网络的自评估机器人任务中错误可知的策略学习方法,其特征在于,所述的步骤3中,自评估模块SA由下式表示;
4.根据权利要求1或2或3所述的基于循环神经网络的自评估机器人任务中错误可知的策略学习方法,其特征在于,所述的步骤4中,基于动作的记忆矩阵mt是一个二值矩阵,每个元素表示对应动作的自评估结果;mt初始化为一个全1的矩阵,大小和动作空间大小一致,若某个动作被评估为失败,那么该动作对应的元素将被置0;每尝试一个动作失败,mt被更新一次,直到选择的动作通过自评估模块SA的检测。
5.根据权利要求4所述的基于循环神经网络的自评估机器人任务中错误可知的策略学习方法,其特征在于,所述的步骤5中,错误可知的策略πFA由下式表示:
at+1=πFA(mt|o;θ)
其中θ为πFA可学的网络参数,所述的利用循环神经网络处理记忆矩阵得到新的动作分布包括以下步骤:
步骤51:当t=0时,针对初始观测,利用观测编码器Eo编码观测o,当t>0时,使用记忆编码器Em得到基于动作的记忆矩阵mt,得到的编码记为e;
步骤52:利用循环神经网络GRU编码e得到基于动作的特征;
步骤53:使用解码器D解码得到动作概率分布,并选择具有最大概率值的动作;
6.根据权利要求1所述的基于循环神经网络的自评估机器人任务中错误可知的策略学习方法,其特征在于,为了减少路径规划算法带来的时耗,尝试次数限制在5次以内,若5次以内得到了一个通过自评估模块SA检测的解,则该任务视为成功完成。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211451138.4/1.html,转载请声明来源钻瓜专利网。