[发明专利]基于维度自适应的Tucker分解的深度网络压缩方法有效
申请号: | 201710645965.X | 申请日: | 2017-08-01 |
公开(公告)号: | CN107516129B | 公开(公告)日: | 2020-06-02 |
发明(设计)人: | 林宙辰;钟之声;尉方音 | 申请(专利权)人: | 北京大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 北京万象新悦知识产权代理有限公司 11360 | 代理人: | 黄凤茹 |
地址: | 100871*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 维度 自适应 tucker 分解 深度 网络 压缩 方法 | ||
1.一种基于维度自适应调整的Tucker分解的深度网络压缩的图像处理方法,利用深度网络对图像数据进行压缩处理,针对深度网络的权重,通过适应调整张量各维度的大小,生成新的任意阶张量,再通过核张量和变换矩阵实现张量分解,达到在网络性能损失小的前提下实现深度网络的高倍数压缩;包括维度自适应调整过程和维度适应的权重张量分解过程:
1)深度网络卷积层权重为四维张量其中h表示卷积核的高度,w表示卷积核的宽度,s和t表示输入的通道和输出的通道数;深度网络全连接层权重为二维张量其中s和t分别表示输入单元个数和输出单元个数;包括每一层权重张量,第i层的权重张量记为是dw维的权重张量,每个维度的大小分别是通过维度自适应调整过程,针对深度神经网络的每一层权重张量进行维度变换操作,获得深度神经网络维度适应的权重张量
2)维度适应的权重张量分解过程,即对神经网络利用新的前向传播和反向传播过程进行张量分解和张量融合;具体执行如下操作:
21)由深度神经网络每层的核张量和对应的变换矩阵M通过Tucker分解的逆运算,得到维度适应的权重张量对维度适应的权重张量进行维度变换操作的逆变换操作,得到原始网络的权重张量
22)利用进行前向传播:首先通过式1对的mode乘法得到再调整维度大小重构然后利用进行前向传播;深度神经网络每层的乘法个数随着层的核张量改变:
其中,其中表示核张量,k表示核张量的各维度大小,参数可学习;在训练过程中,首先经过对的mode乘法得到再通过调整维度大小得到由此重构
23)根据损失函数值L,采用反向传播算法求得核张量和变换矩阵对应的梯度,再利用现有的优化算法更新核张量和变换矩阵;包括如下操作:
231)通过推导得到新的反向传播算法,利用该反向传播算法得到每层的核张量和变换矩阵M的梯度;利用式3和式4得到变换矩阵和核张量的梯度:
其中,为损失函数对第i个变换矩阵的Mi梯度;为损失函数对共享的核张量的梯度;表示为损失函数对某一层的核张量的梯度;
232)再利用优化算法更新每层的核张量和变换矩阵M;
3)重复步骤2),直到网络收敛到设置的损失函数值,由此达到深度网络压缩的目的。
2.如权利要求1所述深度网络压缩的图像处理方法,其特征是,维度变换操作包括阶数相同的形式和阶数不同的形式,使得张量的每个维度大小分布较为平衡,从而得到维度适应的权重张量。
3.如权利要求1所述深度网络压缩的图像处理方法,其特征是,优选地,当每层的核张量共享同一个核张量时,称为共享的维度适应性调整Tucker分解压缩方法;此时,步骤231)利用式3、式4和式6得到变换矩阵和核张量的梯度:
其中,为损失函数对共享的核张量的梯度;表示为损失函数对某一层的核张量的梯度。
4.如权利要求1所述深度网络压缩的图像处理方法,其特征是,步骤232)所述优化算法为SGD优化算法或ADAM优化算法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710645965.X/1.html,转载请声明来源钻瓜专利网。