[发明专利]一种基于期望值函数的深度强化学习训练加速方法在审
申请号: | 202010313846.6 | 申请日: | 2020-04-20 |
公开(公告)号: | CN111339690A | 公开(公告)日: | 2020-06-26 |
发明(设计)人: | 吴昊霖;李辉;周俊成;王壮;黄操 | 申请(专利权)人: | 成都蓉奥科技有限公司 |
主分类号: | G06F30/20 | 分类号: | G06F30/20;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 610000 四川省成都市锦江区锦华*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 期望值 函数 深度 强化 学习 训练 加速 方法 | ||
1.本发明提出的一种基于期望值函数的深度强化学习训练加速方法主要包括以下步骤:
(1)构建在线神经网络No和目标神经网络Nt,并进行参数初始化;
(2)依据策略π(at|st)选择并执行动作at以获取环境反馈信息;在线神经网络No利用执行动作前所处的状态信息st拟合当前动作值函数Q(st,a),目标神经网络Nt利用执行动作后所处的状态信息st+1拟合下一时刻动作值函数Q(st+1,a);
(3)通过动作策略π(at|st)和动作值函数求数学期望,分别得到当前期望值函数VH(st)和下一时刻期望值函数VH(st+1);并基于期望值函数求得动作策略的辅助评价指标:C(st,at)=VH(st+1)-VH(st);
(4)将辅助评价指标C(st,at)作为辅助损失函数以加快训练速度,最终的损失函数为:
其中,α为调节C(st,at)影响程度的超参数;
(5)利用该最终损失函数更新在线神经网络No的参数,并定期将该参数复制到目标神经网络Nt中。
2.根据权利要求书1所述的方法,其特征在于,步骤(3)中所述,使用动作策略π(at|st)和动作值函数求数学期望,分别得到当前期望值函数VH(st)和下一时刻期望值函数VH(st+1);并基于期望值函数求得动作策略的辅助评价指标:
C(st,at)=VH(st+1)-VH(st)。
3.根据权利要求书1所述的方法,其特征在于,步骤(4)中所述,将辅助评价指标C(st,at)作为辅助损失函数以加快训练速度,最终的损失函数为:
其中,α为调节C(st,at)影响程度的超参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都蓉奥科技有限公司,未经成都蓉奥科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010313846.6/1.html,转载请声明来源钻瓜专利网。