[发明专利]一种求解提升邻近算子机的神经网络优化方法有效
申请号: | 201811203464.7 | 申请日: | 2018-10-16 |
公开(公告)号: | CN111062474B | 公开(公告)日: | 2023-04-28 |
发明(设计)人: | 林宙辰;李嘉;方聪 | 申请(专利权)人: | 北京大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 北京万象新悦知识产权代理有限公司 11360 | 代理人: | 黄凤茹 |
地址: | 100871*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 求解 提升 邻近 算子 神经网络 优化 方法 | ||
1.一种求解提升邻近算子机的神经网络优化方法,其特征是,在前向神经网络的训练中,通过采用块坐标下降方法求解提升邻近算子机LPOM模型,LPOM模型中的每个子问题均具收敛性,可并行更新神经网络每层的权值和网络激活,且不占用额外内存空间;将所述的神经网络优化方法应用于图像识别;
所述提升邻近算子机LPOM模型的目标函数表示为式1:
其中,Wi-1是神经网络的第i-1层网络权值;Xi是第i层网络激活,i=2,…,n;l(Xn,L)是损失函数,n是神经网络的层数;X1是训练图像,当i=2时,Xi-1即为X1;所述训练图像具体是采用CIFAR-10图像数据集中的数据,并通过减去红、绿和蓝三个通道的均值来归一化图像数据集的彩色图像;L是X1对应的类标;对于矩阵输入,f(x)和g(x)是逐元素的;φ(x)是激活函数,φ-1是φ的逆函数;μi>0是第i个惩罚项的参数;1是全1的列向量;||·||F是Frobenius范数;若l(Xn,L)关于Xn是凸的,并且φ(x)是单增的,则LPOM关于Wi和Xi是块多凸的,即若其余变量保持不变,式1表示的目标函数关于Wi和Xi是凸的;
求解提升邻近算子机的神经网络优化方法包括如下步骤:
1)从神经网络训练图像中随机选取m1个训练图像X1和L,其中,m1是批处理的大小,L是训练图像X1对应的类标;
2)逐层更新网络激活Xi,i=1,…,n;执行操作21)~22):
21)按i=1,…,n-1顺序依次更新Xi:循环式2直到收敛:
式2中,μi+1为第i+1个惩罚项的参数;
22)更新Xn:循环式3直到收敛:
式3中,μn为第n个惩罚项的参数;
3)更新网络权值Wi,i=1,…,n-1:
具体地,假设是β平滑的,即不等式:成立;通过以下过程更新Wi:
进行初始化:Wi,0、Wi,1、θ0=0;t=1;其中,Wi,0和Wi,1是迭代更新Wi的初始值,θ0是参数θ的初始值,t是迭代次数;
31)计算θt:其中,θt>0表示第t次迭代时参数θ的值;
32)计算Yi,t:其中,Yi,t表示第t次迭代更新Yi;
33)计算Wi,t+1:其中,Wi,t+1表示第t+1次迭代更新Wi,表示Xi的伪逆;
34)迭代次数加1:t←t+1;
上述步骤21),22)和3)均具有收敛性保证;
通过上述步骤,即完成采用求解提升邻近算子机的块坐标下降方法实现神经网络优化。
2.如权利要求1所述的神经网络优化方法,其特征是,所述的神经网络优化方法实现并行地更新神经网络每层的权值和网络激活。
3.如权利要求1所述的神经网络优化方法,其特征是,使用最小二乘损失函数:和ReLU激活函数:ReLU(x)=max(x,0),未使用任何正则化处理权值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811203464.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:杯形原竹活性炭水处理滤芯
- 下一篇:数据处理系统及方法、装置