[发明专利]面向强化学习的深度神经网络生成方法在审
申请号: | 202211200662.4 | 申请日: | 2022-09-29 |
公开(公告)号: | CN115511077A | 公开(公告)日: | 2022-12-23 |
发明(设计)人: | 陆钱融;唐文明;杜科;李嘉琪;于祥祯 | 申请(专利权)人: | 上海无线电设备研究所 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/063;G06N3/04 |
代理公司: | 上海元好知识产权代理有限公司 31323 | 代理人: | 包姝晴;张妍 |
地址: | 200233 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 面向 强化 学习 深度 神经网络 生成 方法 | ||
1.一种面向强化学习的深度神经网络生成方法,其特征在于,包含以下步骤:采用循环神经网络产生子网络拓扑模型,设计需求驱动的直接奖励,对待识别的样本进行充分训练后计算该子网络拓扑模型的奖励,并反向传播至循环神经网络;采用策略梯度下降计算法则,结合交叉熵梯度模型,更新循环神经网络参数;产生新的卷积神经子网络拓扑模型,进行下一次更新直至收敛;对收敛时输出的子网络拓扑模型采样,选择最大概率项和其对应的状态空间元素,合并生成最优的子网络拓扑模型。
2.如权利要求1所述的深度神经网络生成方法,其特征在于,具体包含以下步骤:
S1、设定循环神经网络、待优化子网络拓扑模型每一层类型状态空间、子网络拓扑模型每一层状态所具有的动作空间、子网络拓扑模型训练后所返回的直接奖励以及状态探索概率、子网络拓扑模型全样本训练周期、奖励折扣参数;
S2、采样生成循环神经网络初始输入状态,并得到第一组子网络拓扑模型;
S3、在子网络拓扑模型和训练样本基础上,经过设定的训练周期后,经测试计算该子网络模型所对应的返回奖励;
S4、基于子网络模型所对应的返回奖励,并通过策略梯度下降准则,更新循环神经网络模型参数。
S5、基于更新后的循环神经网络,并共享状态空间参数,再次生成第二组子网络拓扑模型,重复S3~S5,直到收敛,输出该子网络拓扑模型;
S6、对输出的子网络拓扑模型进行采样,在每一个长短时记忆单元输出中选择最大概率项和其对应的状态空间元素,全部元素合并成最优的子网络拓扑模型。
3.如权利要求2所述的深度神经网络生成方法,其特征在于,所述子网络拓扑模型每一层类型状态空间定义为:
S={conv dconv pooling bn-activation skip quantization}
式中“conv”表示卷积状态、“dconv”表示深度可分离卷积状态、“pooling”表示池化状态、“bn-activation”表示批量归一化激活状态、“skip”表示跳跃连接点状态、“quantization”表示量化状态;
所述子网络拓扑模型每一层状态所具有的动作空间定义为:
式中,卷积状态动作输出滤波器个数,包括16、32、64三种选择;深度可分离卷积动作同卷积状态动作;池化状态动作集包含“max”和“avg”两种,其中,max表示最大值池化,avg表示平均值池化;批量归一化-激活状态动作集包含“ReLu”和“tanh”两种;跳跃连接状态包含L-l两种动作,其中L表示子网络拓扑模型深度,l表示当前状态所在层数;量化状态包含“0”和“1”两种动作,分别表示不采用INT8处理以及采用INT8处理。
4.如权利要求2所述的深度神经网络生成方法,其特征在于,所述子网络拓扑模型训练后所返回的直接奖励,是平均识别精度有限损失情况下,获得最优的子网络推理延迟,其计算方法为:
式中,LAT和TFP32分别表示子网络拓扑模型平均延迟和相同拓扑模型下基于单精度浮点运算的平均延迟;ACC和ACCFP32分别表示子网络拓扑模型平均识别精度和相同拓扑模型下基于单精度浮点运算的平均识别精度;β>0,用于控制精度损失在奖励中的权重;α>1,用于控制平均精度可允许损失范围。
5.如权利要求2所述的深度神经网络生成方法,其特征在于,所述循环神经网络由长短时记忆单元组成,所述长短时记忆单元的数量等于子网络拓扑模型深度的三倍。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海无线电设备研究所,未经上海无线电设备研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211200662.4/1.html,转载请声明来源钻瓜专利网。