[发明专利]一种神经网络模型压缩方法及装置在审
申请号: | 202010306190.5 | 申请日: | 2020-04-17 |
公开(公告)号: | CN111582471A | 公开(公告)日: | 2020-08-25 |
发明(设计)人: | 方济生 | 申请(专利权)人: | 中科物栖(北京)科技有限责任公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04 |
代理公司: | 北京和信华成知识产权代理事务所(普通合伙) 11390 | 代理人: | 胡剑辉 |
地址: | 100086 北京市海淀区科学院南路6*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 神经网络 模型 压缩 方法 装置 | ||
1.一种神经网络模型压缩方法,其特征在于,所述方法包括:
对已训练的神经网络模型中的权重和激活值进行量化;
确定量化后的神经网络模型中每一层的位剪枝强度;
针对所述量化后的神经网络模型的每一层,基于该层的位剪枝强度对该层中的权重进行剪枝处理;
对剪枝处理后的神经网络模型进行重训练。
2.根据权利要求1所述的方法,其特征在于,所述对已训练的神经网络模型中的权重和激活值进行量化,包括:
依据设定的量化位宽对已训练的神经网络模型中的权重和激活值进行量化。
3.根据权利要求1所述的方法,其特征在于,所述确定量化后的神经网络模型中每一层的位剪枝强度,包括:
利用启发式算法对量化后的神经网络模型中每一层的冗余度进行测试;
依据测试结果确定量化后的神经网络模型中每一层的位剪枝强度。
4.根据权利要求1所述的方法,其特征在于,所述对剪枝处理后的神经网络模型进行重训练,包括:
利用改进的梯度下降算法对剪枝处理后的神经网络模型进行重训练,所述改进的随机梯度下降算法是指:利用直通梯度估计法确定下降梯度并判断使用所述下降梯度更新量化后的权重是否能够满足设定条件,如果是,则使用所述下降梯度更新量化后的权重;如果否,则不对所述量化后的权重进行更新。
5.根据权利要求1~4任一所述的方法,其特征在于,所述方法还包括:
将重训练后的神经网络模型部署到位串行加速器上。
6.一种神经网络模型压缩装置,其特征在于,所述装置包括:
量化模块,用于对已训练的神经网络模型中的权重和激活值进行量化;
确定模块,用于确定量化后的神经网络模型中每一层的位剪枝强度;
剪枝模块,用于针对所述量化后的神经网络模型的每一层,基于该层的位剪枝强度对该层中的权重进行剪枝处理;
重训练模块,用于对剪枝处理后的神经网络模型进行重训练。
7.根据权利要求6所述的装置,其特征在于,所述量化模块对已训练的神经网络模型中的权重和激活值进行量化,包括:
依据设定的量化位宽对已训练的神经网络模型中的权重和激活值进行量化。
8.根据权利要求6所述的装置,其特征在于,所述确定模块确定量化后的神经网络模型中每一层的位剪枝强度,包括:
利用启发式算法对量化后的神经网络模型中每一层的冗余度进行测试;
依据测试结果确定量化后的神经网络模型中每一层的位剪枝强度。
9.根据权利要求6所述的装置,其特征在于,所述重训练模块对剪枝处理后的神经网络模型进行重训练,包括:
利用改进的梯度下降算法对剪枝处理后的神经网络模型进行重训练,所述改进的随机梯度下降算法是指:利用直通梯度估计法确定下降梯度并判断使用所述下降梯度更新量化后的权重是否能够满足设定条件,如果是,则使用所述下降梯度更新量化后的权重;如果否,则不对所述量化后的权重进行更新。
10.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线;
其中,所述处理器、通信接口、存储器通过所述通信总线进行相互间的通信;
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的计算机程序,所述处理器执行所述计算机程序时实现权利要求1-5任一所述方法的步骤。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-5任一所述方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中科物栖(北京)科技有限责任公司,未经中科物栖(北京)科技有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010306190.5/1.html,转载请声明来源钻瓜专利网。