[发明专利]一种用于相干合成的强化学习方法在审
申请号: | 202011263298.7 | 申请日: | 2020-11-12 |
公开(公告)号: | CN112446470A | 公开(公告)日: | 2021-03-05 |
发明(设计)人: | 李平雪;章曦;朱云晨 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 刘萍 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 相干 合成 强化 学习方法 | ||
1.一种用于相干合成的强化学习方法,其特征在于,包括以下步骤:根据相干合成光束路数建立动作空间和设置相干合成Q-learning学习参数;根据动作空间建立Q值表;选择一个动作,智能体的输出值为输出值加减微小动作电压或相位;根据光电探测器返回给智能体的环境状态确定奖励函数;更新Q值表。
2.根据权利要求1所述的一种用于相干合成的强化学习方法,其特征在于,所述根据相干合成光束路数N建立动作空间包括:
智能体在第i路光的动作表示如下:
式中是微小动作电压或者是微小相位,设置为0.03;其中aij表示智能体在第i路光处的动作为j表示动作a定义时的正负,动作空间A定义包含智能体动作的所有情况,在时刻t中智能体输出动作at表示为:
所以N个j的取值的所有排列组合构成动作空间A;
当相干合成光束路数N5,则Q-learning的动作空间A被表示为:
而N≥5的时候要使用分治的方法,将光束路数N分为n份,看做n个k=N/n路光进行相干合成,Q-learning的动作空间A由下式表示:
首先k个j的取值的所有排列组合构成动作空间a';
其中n为将光束路数被分成的份数,其中aij表示智能体在第i路光处的动作为j表示动作a定义时的正负,动作空间A定义包含智能体动作的所有情况,在时刻t中智能体输出动作at表示为:
由此可以定义智能体的动作空间A为:
3.根据权利要求1所述的一种用于相干合成的强化学习方法,其特征在于,所述设置Q-learning学习参数如下:
Q-learning算法使用ε-greedy策略,更新Q值表由下式进行:
Q(st,at)←Q(st,at)+α(rt+γmaxQ(st+1,a)-Q(st,at))
其中st是t时刻下智能体观察到的环境状态,at是t时刻下的智能体执行动作,Q(st,at)是在t时刻下状态st和动作at下的Q值,Q(st+1,at)是在t+1时刻下状态st+1和在t时刻动作at下的Q值,maxQ(st+1,a)是Q值表在t+1时刻下状态st+1取得的最大值,rt是t时刻下的奖励函数,α是学习率,γ是折扣率;根据实验,设置α为1,设置γ为0.1,Q-learning的ε-greedy策略里的概率ε被设置为0.3,其表示有0.3的概率随机在动作空间A中选择动作。
4.根据权利要求1所述的一种用于相干合成的强化学习方法,其特征在于,所述根据动作空间建立Q值表的方法如下:
根据动作空间建立一维的Q-table,该Q-table的大小为1×动作空间A的列向量长度的矩阵。
5.根据权利要求1所述的一种用于相干合成的强化学习方法,其特征在于,所述选择一个动作,智能体的输出值为输出值加减微小动作电压或相位:
智能体在时刻t下,输出相位或者输出电压为在时刻t+1下,输出相位或者输出电压为他们之间由下式表示:
其中at为智能体在t时刻的输出动作。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011263298.7/1.html,转载请声明来源钻瓜专利网。