[发明专利]策略网络训练方法、装置、设备及可读存储介质有效
申请号: | 202110653456.8 | 申请日: | 2021-06-11 |
公开(公告)号: | CN113392971B | 公开(公告)日: | 2022-09-02 |
发明(设计)人: | 吴静;张明琦;江昊;周建国;陈琪美 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N20/10 |
代理公司: | 武汉智权专利代理事务所(特殊普通合伙) 42225 | 代理人: | 张凯 |
地址: | 430072*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 策略 网络 训练 方法 装置 设备 可读 存储 介质 | ||
1.一种策略网络训练方法,其特征在于,所述策略网络训练方法包括:
将N个高带宽数据输入M个智能体,得到每个智能体基于输入的Di生成的选择动作aj,以及选择动作aj对应的奖励值rj,以(Di,a1,...,aM,r1,...,rM,D')作为一个样本,得到i个样本,其中,Di为第i个高带宽数据,D'为第i+1个高带宽数据;
根据每个样本中的r1至rM,得到每个样本的奖励值;
将奖励值大于阈值的样本放入优化经验池,将奖励值不大于阈值的样本放入常规验池;
以预设采样机制从优化经验池以及常规验池中获取样本,作为训练样本,通过训练样本对策略网络和价值网络进行更新,其中,策略网络和价值网络中都有当前网络和目标网络;
所述以预设采样机制从优化经验池以及常规验池中获取样本的步骤包括:
根据权重ω确定第一数量以及第二数量,从优化经验池中获取第一数量个样本,从常规验池中获取第二数量个样本,其中:
not为当前网络与目标网络输出的动作相同时的样本数量,Nbatch为每一次从优化经验池以及常规验池中获取的总样本数量,ωmax为权重ω的上界,ωmax∈[0,1],(1-ω)Nbatch为第一数量,ωNbatch为第二数量;
返回执行所述将N个高带宽数据输入M个智能体的步骤,直至策略网络和价值网络收敛。
2.如权利要求1所述的策略网络训练方法,其特征在于,所述以预设采样机制从优化经验池以及常规验池中获取样本的步骤包括:
根据权重ω确定第一数量以及第二数量,从优化经验池中获取第一数量个样本,从常规验池中获取第二数量个样本,其中:
not为当前网络与目标网络输出的动作相同时的样本数量,Nbatch为每一次从优化经验池以及常规验池中获取的总样本数量,ωmax为权重ω的上界,ωmax∈[0,1],ε为探索因子,(1-ω)Nbatch为第一数量,ωNbatch为第二数量。
3.如权利要求2所述的策略网络训练方法,其特征在于,所述以预设采样机制从优化经验池以及常规验池中获取样本的步骤包括:
基于各个样本的重要因子δi从优化经验池以及常规验池中获取样本,其中:
ri为样本的奖励值,Ni为样本被采样过的次数,T为样本在训练回合中所处于的时间步。
4.如权利要求1所述的策略网络训练方法,其特征在于,所述通过训练样本对策略网络和价值网络进行更新的步骤包括:
通过训练样本,最小化目标网络与当前网络的Loss值更新价值网络;
通过训练样本经过价值网络后得到的Q值,评价策略网络的优劣,并通过梯度下降调整策略网络的参数,使得训练样本经过价值网络后得到更大的Q值。
5.如权利要求4所述的策略网络训练方法,其特征在于,所述策略网络训练方法还包括:
以软更新策略更新策略网络与价值网络中目标网络的参数。
6.如权利要求1至5中任一项所述的策略网络训练方法,其特征在于,所述策略网络训练方法还包括:
每通过训练样本对策略网络和价值网络进行一次更新,则循环次数累加1次,当循环次数达到预设次数时,确定策略网络和价值网络收敛。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110653456.8/1.html,转载请声明来源钻瓜专利网。