[发明专利]一种用于相干合成的强化学习方法在审

专利信息
申请号: 202011263298.7 申请日: 2020-11-12
公开(公告)号: CN112446470A 公开(公告)日: 2021-03-05
发明(设计)人: 李平雪;章曦;朱云晨 申请(专利权)人: 北京工业大学
主分类号: G06N3/04 分类号: G06N3/04;G06N3/08
代理公司: 北京思海天达知识产权代理有限公司 11203 代理人: 刘萍
地址: 100124 *** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 用于 相干 合成 强化 学习方法
【权利要求书】:

1.一种用于相干合成的强化学习方法,其特征在于,包括以下步骤:根据相干合成光束路数建立动作空间和设置相干合成Q-learning学习参数;根据动作空间建立Q值表;选择一个动作,智能体的输出值为输出值加减微小动作电压或相位;根据光电探测器返回给智能体的环境状态确定奖励函数;更新Q值表。

2.根据权利要求1所述的一种用于相干合成的强化学习方法,其特征在于,所述根据相干合成光束路数N建立动作空间包括:

智能体在第i路光的动作表示如下:

式中是微小动作电压或者是微小相位,设置为0.03;其中aij表示智能体在第i路光处的动作为j表示动作a定义时的正负,动作空间A定义包含智能体动作的所有情况,在时刻t中智能体输出动作at表示为:

所以N个j的取值的所有排列组合构成动作空间A;

当相干合成光束路数N5,则Q-learning的动作空间A被表示为:

而N≥5的时候要使用分治的方法,将光束路数N分为n份,看做n个k=N/n路光进行相干合成,Q-learning的动作空间A由下式表示:

首先k个j的取值的所有排列组合构成动作空间a';

其中n为将光束路数被分成的份数,其中aij表示智能体在第i路光处的动作为j表示动作a定义时的正负,动作空间A定义包含智能体动作的所有情况,在时刻t中智能体输出动作at表示为:

由此可以定义智能体的动作空间A为:

3.根据权利要求1所述的一种用于相干合成的强化学习方法,其特征在于,所述设置Q-learning学习参数如下:

Q-learning算法使用ε-greedy策略,更新Q值表由下式进行:

Q(st,at)←Q(st,at)+α(rt+γmaxQ(st+1,a)-Q(st,at))

其中st是t时刻下智能体观察到的环境状态,at是t时刻下的智能体执行动作,Q(st,at)是在t时刻下状态st和动作at下的Q值,Q(st+1,at)是在t+1时刻下状态st+1和在t时刻动作at下的Q值,maxQ(st+1,a)是Q值表在t+1时刻下状态st+1取得的最大值,rt是t时刻下的奖励函数,α是学习率,γ是折扣率;根据实验,设置α为1,设置γ为0.1,Q-learning的ε-greedy策略里的概率ε被设置为0.3,其表示有0.3的概率随机在动作空间A中选择动作。

4.根据权利要求1所述的一种用于相干合成的强化学习方法,其特征在于,所述根据动作空间建立Q值表的方法如下:

根据动作空间建立一维的Q-table,该Q-table的大小为1×动作空间A的列向量长度的矩阵。

5.根据权利要求1所述的一种用于相干合成的强化学习方法,其特征在于,所述选择一个动作,智能体的输出值为输出值加减微小动作电压或相位:

智能体在时刻t下,输出相位或者输出电压为在时刻t+1下,输出相位或者输出电压为他们之间由下式表示:

其中at为智能体在t时刻的输出动作。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202011263298.7/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top